Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
|
@@ -1,11 +1,11 @@
|
|
| 1 |
|
| 2 |
-
from transformers import AutoTokenizer,
|
| 3 |
import torch
|
| 4 |
import gradio as gr
|
| 5 |
|
| 6 |
-
# Загружаем
|
| 7 |
model_name = "cointegrated/rut5-base"
|
| 8 |
-
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 9 |
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
|
| 10 |
|
| 11 |
# Функция генерации ответа
|
|
@@ -29,7 +29,7 @@ def generate_response(prompt):
|
|
| 29 |
iface = gr.Interface(
|
| 30 |
fn=generate_response,
|
| 31 |
inputs=gr.Textbox(lines=4, label="Введите ваш запрос"),
|
| 32 |
-
outputs=gr.Textbox(label="Ответ
|
| 33 |
title="Интерфейс ChatGPT",
|
| 34 |
description="Пример взаимодействия с API OpenAI через Hugging Face Space"
|
| 35 |
)
|
|
|
|
| 1 |
|
| 2 |
+
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
| 3 |
import torch
|
| 4 |
import gradio as gr
|
| 5 |
|
| 6 |
+
# Загружаем модель rut5-base с медленным токенизатором
|
| 7 |
model_name = "cointegrated/rut5-base"
|
| 8 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast=False)
|
| 9 |
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
|
| 10 |
|
| 11 |
# Функция генерации ответа
|
|
|
|
| 29 |
iface = gr.Interface(
|
| 30 |
fn=generate_response,
|
| 31 |
inputs=gr.Textbox(lines=4, label="Введите ваш запрос"),
|
| 32 |
+
outputs=gr.Textbox(label="Ответ модели"),
|
| 33 |
title="Интерфейс ChatGPT",
|
| 34 |
description="Пример взаимодействия с API OpenAI через Hugging Face Space"
|
| 35 |
)
|