CREA OPENAI CHATBOT PARA SOLUCIONAR ‘ALUCINACIONES’ DE LA IA
Guadalupe Selene Salinas Cruz
Agencia Reforma
Nueva York, Estados Unidos 02 julio 2024.- Uno de los mayores problemas que enfrentan actualmente los chatbots de inteligencia artificial -incluso los más avanzados como ChatGPT de OpenAI o Gemini de Google- son las llamadas «alucinaciones», que es cuando un modelo de IA da resultados incorrectos o engañosos, señaló Business Insider.
Estos errores pueden deberse a una variedad de factores, incluidos datos de entrenamiento insuficientes, suposiciones incorrectas hechas por el modelo de IA o sesgos en los datos utilizados para entrenarlo.
Para hacer frente a esto, OpenAI construyó un modelo de IA llamado CriticGPT que intenta encontrar fallas en las respuestas de GPT-4; sin embargo, este funciona nada menos que con el propio GPT-4.
Seguro te preguntarás: ¿cómo puede un modelo de IA detectar sus propios errores y alucinaciones? Bueno, CriticGPT fue desarrollado para ser un experto detectando mentiras. Para ello, los investigadores de OpenAI alimentaron al modelo con información falsa y luego le mostraron cómo responder con críticas detalladas.
OpenAI utiliza CriticGPT para captar las alucinaciones de GPT-4 CriticGPT escribe críticas de las respuestas de ChatGPT para ayudar a los entrenadores humanos a detectar errores durante el proceso de Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (o RLHF, por sus siglas en inglés).
Las críticas de CriticGPT se destacan por su capacidad para evitar «minucias» y alucinaciones, proporcionando así una retroalimentación más valiosa a los entrenadores humanos.
Por ahora, OpenAI solo utiliza CriticGPT para evaluar las capacidades de codificación de GPT-4, ya que las respuestas son sencillas.
CriticGPT logró detectar 85 por ciento de los errores de codificación, mientras que los humanos entrenados solo encontraron 25 por ciento de ellos.
Sin embargo, la mejor opción resultó ser emparejar humanos con CriticGPT, quienes en conjunto se desempeñaron 60 por ciento mejor. Sin embargo, CriticGPT tiene limitaciones, incluyendo su incapacidad de analizar respuestas más complejas.
El desarrollo futuro del modelo tiene como objetivo abordar estas limitaciones mediante la mejora de la comprensión de tareas más largas.
OpenAI no es la única organización que trabaja en una manera de solucionar las alucinaciones en chatbots.
Recientemente investigadores de la Universidad de Oxford presentaron un algoritmo que, según dicen, puede detectar alucinaciones de la IA en un 79 por ciento de las veces. Esto es aproximadamente 10 por ciento mejor que los métodos actuales más eficientes; sin embargo, este algoritmo utiliza aproximadamente 10 veces más energía que una interacción típica de chatbot.