Spaces:
Running
Running
| import os, sys | |
| BASE_DIR = os.path.dirname(__file__) | |
| INFERENCE_DIR = os.path.join(BASE_DIR, "smi-ted", "inference") | |
| sys.path.append(INFERENCE_DIR) | |
| import gradio as gr | |
| from smi_ted_light.load import load_smi_ted | |
| # 2) Caminho onde estão pesos e vocabulário | |
| MODEL_DIR = os.path.join("smi-ted", "inference", "smi_ted_light") | |
| # 3) Carrega o modelo SMI‑TED (Light) | |
| # Se você renomeou o .pt ou o vocab, ajuste aqui. | |
| model = load_smi_ted( | |
| folder=MODEL_DIR, | |
| ckpt_filename="smi-ted-Light_40.pt", | |
| vocab_filename="bert_vocab_curated.txt", | |
| ) | |
| # 4) Função utilizada pela interface | |
| def gerar_embedding(smiles: str): | |
| """ | |
| Recebe uma string SMILES e devolve o embedding (lista de 768 floats). | |
| Em caso de erro, devolve um dicionário com a mensagem. | |
| """ | |
| smiles = smiles.strip() | |
| if not smiles: | |
| return {"erro": "digite uma sequência SMILES primeiro"} | |
| try: | |
| # model.encode devolve tensor shape (1, 768) quando return_torch=True | |
| vetor_torch = model.encode(smiles, return_torch=True)[0] | |
| return vetor_torch.tolist() # JSON‑serializável | |
| except Exception as e: | |
| return {"erro": str(e)} | |
| # 5) Define a interface Gradio | |
| demo = gr.Interface( | |
| fn=gerar_embedding, | |
| inputs=gr.Textbox(label="SMILES", placeholder="Ex.: CCO"), | |
| outputs=gr.JSON(label="Embedding (lista de floats)"), | |
| title="SMI‑TED Embedding Generator", | |
| description=( | |
| "Cole uma sequência SMILES e receba o embedding gerado pelo modelo " | |
| "SMI‑TED Light treinado pela IBM Research." | |
| ), | |
| ) | |
| # 6) Roda localmente ou no Hugging Face Space | |
| if __name__ == "__main__": | |
| demo.launch() | |