Chatbots de IA: ¿Son las matemáticas el camino hacia chatbots que no inventen cosas?
La pregunta se refería a una tabla de 10 por 10 llena de cien números. Si se juntaba el número más pequeño en cada fila y el número más grande en cada columna, preguntó, ¿podría el mayor de los números pequeños ser mayor que el menor de los números grandes?
El robot respondió correctamente «No», pero eso no es sorprendente. Los chatbots populares como ChatGPT también pueden dar la respuesta correcta. La diferencia es que Aristóteles había demostrado que su respuesta era correcta. El robot generó un programa informático detallado que verificó que «No» era la respuesta correcta.
Chatbots que incluyen ChatGPT de IA abierta y Gemini de Google pueden responder preguntas, escribir poesía, resumir artículos de noticias y generar imágenes. Pero también cometen errores que desafían el sentido común. A veces, inventan cosas, un fenómeno llamado alucinación.
Achim, director ejecutivo y cofundador de una empresa emergente de Silicon Valley llamada Harmonic, forma parte de un esfuerzo creciente por crear un nuevo tipo de inteligencia artificial que nunca alucine. Hoy en día, esta tecnología se centra en las matemáticas, pero muchos investigadores destacados creen que pueden extender las mismas técnicas a la programación informática y a otras áreas.
Debido a que las matemáticas son una disciplina rígida con formas formales de demostrar si una respuesta es correcta o incorrecta, empresas como Harmonic pueden desarrollar tecnologías de IA que verifiquen sus propias respuestas y aprendan a producir información confiable.
Descubre las historias de tu interés
Google DeepMindEl laboratorio central de inteligencia artificial del gigante tecnológico presentó recientemente un sistema llamado AlphaProof que funciona de esta manera. Compitiendo en la Olimpiada Internacional de Matemáticas, la principal competencia de matemáticas para estudiantes de secundaria, el sistema logró una «medalla de plata» al resolver cuatro de los seis problemas de la competencia. Fue la primera vez que una máquina alcanzó ese nivel. «Este es un camino que evita las alucinaciones», dijo David Silver, un científico investigador principal de Google DeepMind. «La prueba es una forma de verdad».
Algunos investigadores creen que, empleando técnicas similares, podrán construir un sistema de inteligencia artificial que sea mejor en matemáticas que cualquier ser humano. Ese es el objetivo de Achim y su cofundador Vlad Tenev, más conocido como el director ejecutivo de la empresa de compraventa de acciones en línea Robinhood. Su nueva empresa, Harmonic, ha recaudado 75 millones de dólares en financiación de Sequoia Capital y otros inversores.
Otros, como Silver, creen que estas técnicas pueden extenderse aún más y conducir a sistemas de IA que puedan verificar verdades físicas además de matemáticas.
Alrededor de 2017, empresas como Google, Microsoft y OpenAI comenzaron a construir grandes modelos de lenguaje. Estos sistemas de IA solían pasar meses analizando texto digital extraído de Internet, incluidos libros, artículos de Wikipedia y registros de chat. (El New York Times demandó a OpenAI y Microsoft en diciembre por violación de derechos de autor de contenido noticioso relacionado con sistemas de IA).
Al identificar patrones en todo ese texto, estos sistemas aprendieron a generar texto propio, incluidos trabajos académicos, poesía y códigos informáticos. Incluso podían mantener una conversación.
Pero la tecnología también parecía a veces tonta. Parecía simplemente escupir lo que había aprendido de Internet, incapaz de verificar si la información era correcta o incorrecta, real o completamente inventada.
Este mes, OpenAI presentó una nueva versión de ChatGPT diseñada para razonar preguntas. Pasa tiempo «pensando» y probando diferentes estrategias en un intento por llegar a la respuesta correcta, pero sigue cometiendo errores e inventa cosas.
Investigadores como Achim están empezando a abordar estos problemas a través de las matemáticas. Con ellas se puede demostrar formalmente si una respuesta es correcta o incorrecta.
Hace aproximadamente una década, un investigador de Microsoft llamado Leonardo de Moura creó un lenguaje de programación informática específicamente para demostrar enunciados matemáticos. Este lenguaje de programación, llamado Lean, fue originalmente una herramienta para matemáticos humanos. Pero ahora que los sistemas de IA son lo suficientemente hábiles para generar su propio código informático, también pueden utilizar Lean.
Harmonic está diseñando un gran modelo de lenguaje que puede generar sus propias pruebas Lean. El código Lean que genera no siempre es perfecto, pero mediante ensayo y error puede aprender a verificar una solución.
«Es muy parecido a un ser humano», dijo Achim. «Si intentas resolver un problema de matemáticas, intentas ciertos pasos. Y si fallan, intentas otros, hasta que los logras».
Cuando se le pide a Aristóteles que responda problemas matemáticos, puede comprobar las respuestas. Pueden ser preguntas sencillas como «¿Cuánto es 2+2?» o pueden ser acertijos más complejos como el que tiene la cuadrícula de números de 10 por 10.
«Si el sistema puede generar una respuesta, está básicamente garantizado que es correcta», dijo Achim.
A medida que Aristóteles comprueba sus propias respuestas, se convierte en una forma de generar enormes cantidades de datos digitales confiables que se pueden usar para enseñar a los sistemas de IA. En otras palabras, Aristóteles puede generar datos que se pueden usar para mejorarse a sí mismo.
Los investigadores llaman a esto «datos sintéticos» — datos producidos por la IA que luego pueden usarse para entrenar a la IA. Muchos investigadores creen que este concepto será una parte vital del desarrollo de la IA.
Achim y Tenev creen que, tras años de entrenamiento, Aristóteles será mejor en matemáticas que cualquier ser humano. «Queremos que sea tan inteligente como el conjunto de todos los matemáticos del mundo», afirmó Tenev. «Queremos que resuelva problemas que nunca se han resuelto».
Los sistemas de IA pueden utilizar las mismas técnicas para verificar su propio código informático, que depende en gran medida de la lógica matemática. Y si un sistema puede generar un código fiable, puede realizar acciones en Internet. Se convierte en lo que los investigadores llaman un agente de IA. A medida que estos sistemas de IA mejoren, dicen muchos investigadores, podrían automatizar casi cualquier trabajo digital.
Pero los investigadores se apresuran a añadir que estos sistemas de IA tienen límites. El código simplificado puede demostrar teoremas matemáticos y verificar códigos informáticos, pero no puede manejar los complejos entresijos de la vida cotidiana.
«Una vez que uno sale del ámbito matemático, las cosas son muy diferentes», dijo la científica investigadora de Meta Angela Fan. A menudo no existe un bien o un mal absolutos que los sistemas de IA puedan aprender a alcanzar como lo hacen en matemáticas.
Silver reconoce este problema, pero también dice que hay verdades verificables en el mundo real. Una roca es una roca. El sonido viaja a 343 metros por segundo. El sol se pone por el oeste. Si los sistemas de IA extraen información de la realidad física, también pueden verificar estas verdades.
«La verdad puede venir del mundo», dijo Silver. «Si puedes recibir retroalimentación del mundo, puedes mejorar y mejorar y mejorar».