Innovación para combatir las alucinaciones en la IA

Innovación para combatir las alucinaciones en la IA

La lucha contra la desinformación en la Inteligencia Artificial


Una startup llamada Iris.ai proclama haber desarrollado una técnica que disminuye significativamente las «alucinaciones» de la IA, reduciéndolas a cifras de un solo dígito. Los chatbots, a menudo, difunden datos imprecisos o incluso falsos. Estas alucinaciones, como se las denomina, pueden ser perjudiciales, especialmente cuando la gente confía ciegamente en la información generada por estas máquinas.

Con la popularización de la IA generativa, estas preocupaciones han crecido. En respuesta, un grupo de científicos europeos presentó una solución que parece ser prometedora. Esta innovación proviene de Iris.ai, una empresa noruega que ha desarrollado un motor IA especializado en interpretar textos científicos.

La Autoridad Alimentaria de Finlandia es uno de los muchos clientes que ha aprovechado las soluciones de Iris.ai para optimizar la investigación en situaciones críticas. Sin embargo, las alucinaciones de la IA son un desafío continuo.

La necesidad de respuestas alineadas con el conocimiento humano
Los modelos de lenguaje actuales a menudo generan respuestas incorrectas o engañosas. Estos errores, en algunos casos, pueden tener consecuencias graves, desde dañar reputaciones hasta entregar recomendaciones médicas peligrosas.

Victor Botev, CTO de Iris.ai, recalca la importancia de abordar este problema. Si no se resuelve, podría traducirse en más recursos gastados en la validación de la información generada por la IA. Esto ha creado desconfianza en muchos profesionales; a pesar de que aún dependen de herramientas como ChatGPT, su fe en tales sistemas ha disminuido.

Estrategias de Iris.ai para la validación de datos


Para garantizar resultados precisos, Iris.ai ha implementado múltiples estrategias. La más fundamental es la validación factual. Comparan las respuestas generadas por la IA con una «verdad base» establecida para asegurarse de que la información generada sea correcta y provenga de fuentes confiables.

Adicionalmente, han desarrollado métricas para evaluar la coherencia y relevancia de las respuestas. El objetivo es que las respuestas de la IA estén en sintonía con lo que un experto humano proporcionaría.

Los gráficos de conocimiento: un camino hacia la precisión


Dentro de la infraestructura de Iris.ai, los gráficos de conocimiento juegan un papel crucial al visualizar cómo se relacionan los datos. Esto facilita la identificación y corrección de errores, llevando a respuestas más lógicas y precisas.

Iris.ai ha añadido esta tecnología a su plataforma, obteniendo resultados prometedores en las pruebas. Sin embargo, la implementación a gran escala aún enfrenta desafíos, especialmente con usuarios que podrían no tener suficiente conocimiento sobre un tema en particular.

Buscando soluciones más allá


La formación inadecuada es la raíz de muchas alucinaciones en la IA. Algunas propuestas sugieren entrenar modelos con datos más estructurados o incluso en lenguaje codificado para reducir el sesgo y las imprecisiones.

A pesar de los desafíos, la iniciativa de Iris.ai marca un avance positivo. Aumentar la transparencia y la explicabilidad de la IA es esencial para recuperar la confianza en estas herramientas. Victor Botev enfatiza la importancia de esta confianza, ya que es fundamental para que los usuarios se beneficien realmente de la IA.

Planeta Uy

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *