Spaces:
Sleeping
Sleeping
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM, pipeline | |
import gradio as gr | |
# Cargar el tokenizer y el modelo desde el repositorio del modelo preentrenado | |
tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") | |
model = AutoModelForSeq2SeqLM.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") | |
# Crear el pipeline de resumen utilizando los objetos cargados | |
resumidor = pipeline("summarization", model=model, tokenizer=tokenizer) | |
def generar_resumen(texto): | |
# Generar el resumen usando el pipeline | |
resumen = resumidor(texto, max_length=130, min_length=30, do_sample=False) | |
return resumen[0]["summary_text"] | |
# Crear la interfaz de Gradio | |
demo = gr.Interface( | |
fn=generar_resumen, | |
inputs=gr.Textbox(lines=10, placeholder="Pega aquí un texto largo en español..."), | |
outputs="text", | |
title="Generación de Resúmenes Automáticos", | |
description="Introduce un texto largo en español y obtén un resumen generado automáticamente por un modelo preentrenado." | |
) | |
# Lanzar la aplicación | |
demo.launch() | |