sirochild commited on
Commit
581fb54
·
verified ·
1 Parent(s): 32c9748

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +100 -0
README.md ADDED
@@ -0,0 +1,100 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ title: 麻理チャット - Swallow-MX-8x7b-NVE GGUF版
3
+ emoji: 🤖
4
+ colorFrom: pink
5
+ colorTo: purple
6
+ sdk: gradio
7
+ sdk_version: 5.0.0
8
+ app_file: app.py
9
+ pinned: false
10
+ ---
11
+
12
+ # 麻理チャット - Swallow-MX-8x7b-NVE GGUF版
13
+
14
+ このアプリケーションは、東京工業大学のSwallow-MX-8x7b-NVEモデルの量子化GGUF版を使用した対話型チャットボットです。「麻理」という名のAIキャラクターとの会話を楽しむことができます。
15
+
16
+ ## 特徴
17
+
18
+ - 東京工業大学の日本語大規模言語モデル「Swallow-MX-8x7b-NVE-v0.1」の量子化版(Q4_K_M)を使用
19
+ - llama-cpp-pythonによる高速・省メモリな推論
20
+ - 複数のシーン(水族館、カフェ、神社など)に対応した背景と会話
21
+ - 好感度システムによる関係性の変化
22
+ - 感情分析による応答の調整
23
+
24
+ ## セットアップ方法
25
+
26
+ ### Hugging Face Spacesでの実行
27
+
28
+ 1. このリポジトリをHugging Face Spacesにインポートします
29
+ 2. Spacesの設定で以下を選択します:
30
+ - SDK: Gradio
31
+ - Python: 3.10
32
+ - CPU: 必要に応じて(最低でも4GB RAM推奨)
33
+ - Hardware: CPU(GPUは不要です)
34
+ 3. 必要に応じて環境変数を設定します:
35
+ - `GROQ_API_KEY`: Groq APIキー(オプション、シーン遷移時の指示生成に使用)
36
+
37
+ #### デプロイに関する注意事項
38
+
39
+ - **初回のデプロイ時間**: モデルのダウンロード(約4GB)に時間がかかります。辛抱強く待ってください。
40
+ - **ビルドエラーが発生した場合**: Spacesの「Settings」タブで「Factory Reboot」を実行してみてください。
41
+ - **メモリ不足エラー**: CPUのメモリを増やす(4GB以上推奨)か、「Restart Space」を試してください。
42
+ - **タイムアウトエラー**: ビルドプロセスが長すぎる場合は、再度デプロイを試みてください。
43
+
44
+ #### トラブルシューティング
45
+
46
+ 1. **モデルのロードに失敗する場合**:
47
+ - Spacesの「Settings」タブで「Restart Space」を実行してください。
48
+ - それでも解決しない場合は「Factory Reboot」を試してください。
49
+
50
+ 2. **アプリが起動しない場合**:
51
+ - ログを確認して、エラーの原因を特定してください。
52
+ - メモリ不足の場合は、CPUのメモリ割り当てを増やしてください。
53
+
54
+ 3. **応答生成が遅い場合**:
55
+ - これは正常です。量子化モデルをCPUで実行しているため、応答生成には時間がかかります。
56
+
57
+ ### ローカル環境での実行
58
+
59
+ 1. リポジトリをクローンします
60
+ 2. 依存関係をインストールします:
61
+ ```
62
+ pip install -r requirements.txt
63
+ ```
64
+ 3. `.env`ファイルを作成し、必要な環境変数を設定します:
65
+ ```
66
+ GROQ_API_KEY=your_groq_api_key_here
67
+ ```
68
+ 4. アプリケーションを実行します:
69
+ ```
70
+ python app.py
71
+ ```
72
+
73
+ ## 使用方法
74
+
75
+ 1. テキスト入力欄にメッセージを入力します
76
+ 2. 麻理からの応答が表示されます
77
+ 3. 会話を続けることで好感度が変化します
78
+ 4. 特定の場所について話し、行くことに同意すると、シーンが変化します
79
+
80
+ ## シーン一覧
81
+
82
+ - `default`: デフォルトの部屋
83
+ - `room_night`: 夜の部屋
84
+ - `beach_sunset`: 夕暮れのビーチ
85
+ - `festival_night`: 夜のお祭り
86
+ - `shrine_day`: 昼間の神社
87
+ - `cafe_afternoon`: 午後のカフェ
88
+ - `aquarium_night`: 夜の水族館
89
+
90
+ ## モデル情報
91
+
92
+ このアプリケーションは、東京工業大学が開発した「Swallow-MX-8x7b-NVE-v0.1」モデルの量子化GGUF版を使用しています。
93
+ - 元のモデル: [tokyotech-llm/Swallow-MX-8x7b-NVE-v0.1](https://huggingface.co/tokyotech-llm/Swallow-MX-8x7b-NVE-v0.1)
94
+ - 量子化GGUF版: [mmnga/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf](https://huggingface.co/mmnga/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf)
95
+
96
+ ## 注意事項
97
+
98
+ - GGUF形式の量子化モデル(Q4_K_M)を使用することで、メモリ使用量を大幅に削減しています
99
+ - llama-cpp-pythonを使用することで、GPUメモリの効率的な使用が可能になっています
100
+ - Hugging Face Spaces上でも快適に動作するように最適化されています