Spaces:
Sleeping
Sleeping
laserbeam2045
commited on
Commit
·
1da8040
1
Parent(s):
9183224
fix
Browse files- app.py +1 -8
- packages.txt +0 -1
- requirements.txt +1 -1
app.py
CHANGED
|
@@ -88,11 +88,4 @@ async def generate(req: GenerationRequest):
|
|
| 88 |
raise HTTPException(status_code=500, detail=f"生成中にエラーが発生しました: {e}")
|
| 89 |
|
| 90 |
|
| 91 |
-
#
|
| 92 |
-
# ローカル起動用
|
| 93 |
-
# -----------------------------------------------------------------------------
|
| 94 |
-
if __name__ == "__main__":
|
| 95 |
-
import uvicorn
|
| 96 |
-
port = int(os.environ.get("PORT", 8000))
|
| 97 |
-
# アプリケーションのロードに失敗した場合に備えて try-except を追加することも検討
|
| 98 |
-
uvicorn.run("app:app", host="0.0.0.0", port=port, log_level="info")
|
|
|
|
| 88 |
raise HTTPException(status_code=500, detail=f"生成中にエラーが発生しました: {e}")
|
| 89 |
|
| 90 |
|
| 91 |
+
# ローカル起動用のコードは Hugging Face Spaces では不要なため削除
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
packages.txt
DELETED
|
@@ -1 +0,0 @@
|
|
| 1 |
-
build-essential
|
|
|
|
|
|
requirements.txt
CHANGED
|
@@ -1,4 +1,4 @@
|
|
| 1 |
fastapi
|
| 2 |
uvicorn[standard]
|
| 3 |
llama-cpp-python>=0.2.79
|
| 4 |
-
|
|
|
|
| 1 |
fastapi
|
| 2 |
uvicorn[standard]
|
| 3 |
llama-cpp-python>=0.2.79
|
| 4 |
+
huggingface_hub
|