import subprocess subprocess.run('pip install transformers tensorflow[and-cuda] pytorch --no-build-isolation', env={'FLASH_ATTENTION_SKIP_CUDA_BUILD': "TRUE"}, shell=True) import streamlit as st from transformers import pipeline # Configurar el modelo pipe = pipeline("text-generation", model="gplsi/Aitana-6.3B") # Función para generar respuesta del modelo def generate_response(input_text): return pipe(input_text, max_length=50, do_sample=True, temperature=0.7)[0]['generated_text'] # Configuración de la aplicación Streamlit def main(): st.title("Chat con Aitana") st.write("¡Bienvenido al chat con Aitana! Escribe algo para comenzar la conversación.") # Área de entrada de texto user_input = st.text_area("Tú:") # Botón para enviar mensaje if st.button("Enviar"): if user_input.strip() != "": # Generar respuesta response = generate_response(user_input) # Mostrar respuesta st.text_area("Aitana:", value=response, height=200, max_chars=None, key=None) if __name__ == "__main__": main()