banner

Noticias

Mar 14, 2024

La tendencia de los chatbots de IA a decir falsedades plantea desafíos

El problema de los chatbots de inteligencia artificial (IA), como ChatGPT, que generan información falsa es una preocupación creciente para empresas, organizaciones e individuos. Este problema afecta a diversos campos, desde la psicoterapia hasta la redacción de escritos jurídicos. Daniela Amodei, cofundadora del chatbot de IA Claude 2, reconoce que todos los modelos actuales sufren algún grado de “alucinación”, ya que están diseñados principalmente para predecir la siguiente palabra y, a menudo, lo hacen de manera imprecisa. Desarrolladores como Anthropic y OpenAI, que crearon ChatGPT, están trabajando activamente para abordar este problema y mejorar la veracidad de sus sistemas de inteligencia artificial.

Sin embargo, los expertos en la materia sugieren que la erradicación completa de este problema puede no ser factible. La profesora de lingüística Emily Bender explica que la falta de coincidencia entre la tecnología de inteligencia artificial y sus casos de uso propuestos plantea limitaciones inherentes. La confiabilidad de la tecnología de IA generativa tiene una importancia significativa, con contribuciones proyectadas de entre 2,6 y 4,4 billones de dólares a la economía global. Por ejemplo, Google pretende proporcionar productos de inteligencia artificial para redacción de noticias a organizaciones de noticias, enfatizando la necesidad de precisión.

Las implicaciones de la información falsa se extienden más allá de los textos escritos. El informático Ganesh Bagler, en colaboración con institutos de gestión hotelera de la India, ha estado aprovechando los sistemas de inteligencia artificial para inventar recetas. Los resultados inexactos pueden marcar una diferencia sustancial en el sabor y la calidad de una comida, lo que subraya la necesidad de precisión en la IA generativa.

Si bien el director ejecutivo de OpenAI, Sam Altman, sigue siendo optimista acerca de mejorar la tendencia de los sistemas de inteligencia artificial a producir información falsa, escépticos como Bender argumentan que las mejoras pueden no ser suficientes. Los modelos de lenguaje están diseñados principalmente para predecir secuencias de palabras basadas en datos de entrenamiento, y el resultado que generan es esencialmente escritura creativa en lugar de información factual. Estos modelos tienden a fallar de maneras sutiles que resultan difíciles de identificar para los lectores.

A pesar de las preocupaciones, algunas empresas ven la tendencia de los chatbots de IA a generar información falsa como una característica valiosa. Las empresas de marketing, como Jasper AI, aprovechan los resultados creativos de la IA para generar ideas únicas para las presentaciones de los clientes. Sin embargo, la demanda de contenido preciso sigue siendo alta y empresas como Google están realizando esfuerzos para abordar el problema.

Bill Gates y otros defensores de la IA expresan optimismo en cuanto a que se pueden realizar mejoras para ayudar a los modelos de IA a distinguir entre realidad y ficción. No obstante, queda por ver si en el futuro se podrá lograr una precisión total en el texto generado por IA.

COMPARTIR