Los chatbots de IA se niegan a producir resultados ‘controvertidos’: por qué es un problema de libertad de expresión

Aquí Yves. Ahora debería sorprendernos que nuestros autodenominados mejores estén utilizando la tecnología siempre que pueden para bloquear o minimizar ideas y discusiones que consideran amenazantes para sus intereses. Sin duda, muchos lectores recuerdan cómo los autocompletados de Google en las elecciones presidenciales de 2016 sugerirían frases favorables para Hillary Clinton (incluso cuando el usuario estaba escribiendo información relacionada con frases desfavorables, como su colapso físico) y lo contrario para Trump. Nosotros y muchos otros sitios independientes hemos proporcionado evidencia de cómo Google ha cambiado sus algoritmos para que nuestras historias aparezcan muy abajo en los resultados de búsqueda, si es que aparecen. Tenga en cuenta que la Ministra de Competencia de la UE, Margrethe Vestager, informó que sólo el 1% de los usuarios de la búsqueda hicieron clic en la entrada número 10 o menos.

Por Jordi Calvet-Bademunt, investigador y académico visitante de ciencias políticas, Universidad de Vanderbilt y Jacob Mchangama, profesor investigador de ciencias políticas, Universidad de Vanderbilt. Publicado originalmente en La conversación

Google recientemente apareció en los titulares a nivel mundial porque su chatbot Gemini generó imágenes de personas de color en lugar de personas blancas. en escenarios históricos que presentaban personas blancas. La herramienta de creación de imágenes de Adobe Firefly vio problemas similares. Esto llevó a algunos comentaristas a quejarse de que la IA había se fue «despertó.” Otros sugirieron que estos problemas se debían a Esfuerzos erróneos para luchar contra el sesgo de la IA y servir mejor a audiencia global.

Las discusiones sobre las inclinaciones políticas de AI y los esfuerzos para combatir los prejuicios son importantes. Aun así, la conversación sobre la IA ignora otra cuestión crucial: ¿cuál es el enfoque de la industria de la IA respecto de la libertad de expresión? ¿Abarca los estándares internacionales de libertad de expresión?

Somos investigadores de políticas que estudiar la libertad de expresiónasí como director ejecutivo e investigador en El futuro de la libertad de expresiónun grupo de expertos independiente y no partidista con sede en la Universidad de Vanderbilt. En un informe reciente, descubrimos que la IA generativa ha deficiencias importantes en materia de libertad de expresión y acceso a la información.

La IA generativa es un tipo de IA que crea contenidocomo texto o imágenes, según los datos con los que ha sido entrenado. En particular, descubrimos que las políticas de uso de los principales chatbots no cumplen con los estándares de las Naciones Unidas. En la práctica, esto significa que los chatbots de IA a menudo censuran la producción cuando abordan temas que las empresas consideran controvertidos. Sin una sólida cultura de libertad de expresión, es probable que las empresas que producen herramientas de IA generativa sigan enfrentándose a reacciones negativas en estos tiempos cada vez más polarizados.

Políticas de uso vagas y amplias

Nuestro informe analizó las políticas de uso de seis importantes chatbots de IA, incluidos Gemini de Google y ChatGPT de OpenAI. Las empresas emiten políticas para establecer reglas sobre cómo las personas pueden usar sus modelos. Tomando como referencia el derecho internacional de los derechos humanos, descubrimos que las políticas de desinformación y discurso de odio de las empresas son demasiado vagas y amplias. Vale la pena señalar que el derecho internacional de los derechos humanos protege menos la libertad de expresión que la Primera Enmienda de Estados Unidos.

Nuestro análisis encontró que las políticas de incitación al odio de las empresas contienen extremadamente amplio prohibiciones. Por ejemplo, Google prohíbe la generación de “contenido que promueva o fomente el odio”. Aunque el discurso de odio es detestable y puede causar daño, las políticas definidas de manera tan amplia y vaga como las de Google pueden resultar contraproducentes.

Para mostrar cómo las políticas de uso vagas y amplias pueden afectar a los usuarios, probamos una variedad de sugerencias sobre temas controvertidos. Hicimos preguntas a los chatbots, como si a las mujeres transgénero se les debería o no permitir participar en torneos deportivos femeninos o sobre el papel del colonialismo europeo en las actuales crisis climáticas y de desigualdad. No pedimos a los chatbots que produjeran discursos de odio que denigraran a ningún bando o grupo. Similar a que algunos usuarios han informadoLos chatbots se negaron a generar contenido para el 40% de los 140 mensajes que utilizamos. Por ejemplo, todos los chatbots se negaron a generar publicaciones que se opusieran a la participación de mujeres transgénero en torneos femeninos. Sin embargo, la mayoría de ellos sí produjeron publicaciones apoyando su participación.

La libertad de expresión es un derecho fundamental en Estados Unidos, pero todavía se debate ampliamente qué significa y hasta dónde llega.Las políticas vagamente formuladas dependen en gran medida de las opiniones subjetivas de los moderadores sobre lo que es el discurso de odio. Los usuarios también pueden percibir que las normas se aplican injustamente e interpretarlas como demasiado estrictas o demasiado indulgentes.

Por ejemplo, el chatbot Pi prohíbe «contenido que pueda difundir información errónea». Sin embargo, las normas internacionales de derechos humanos sobre la libertad de expresión generalmente protegen la información errónea a menos que exista una justificación sólida para imponer límites, como la interferencia extranjera en las elecciones. De lo contrario, las normas de derechos humanos garantizan la “libertad de buscar, recibir e impartir información e ideas de todo tipo, sin importar fronteras… a través de cualquier… medio de… elección”, según una convención clave de las Naciones Unidas.

Definir lo que constituye información precisa también tiene implicaciones políticas. Los gobiernos de varios países utilizaron normas adoptadas en el contexto de la pandemia de COVID-19 para reprimir las críticas del gobierno. Más recientemente, India se enfrentó a Google después de que Gemini señalara que algunos expertos consideran fascista la política del primer ministro indio, Narendra Modi.

Cultura de libertad de expresión

Hay razones por las que los proveedores de IA podrían querer adoptar políticas de uso restrictivas. Es posible que deseen proteger su reputación y no verse asociados con contenido controvertido. Si atienden a una audiencia global, es posible que deseen evitar contenido que sea ofensivo en cualquier región.

En general, los proveedores de IA tienen derecho a adoptar políticas restrictivas. No están obligados por los derechos humanos internacionales. Aún así, sus poder de mercado los diferencia de otras empresas. Los usuarios que quieran generar contenido de IA probablemente terminarán usando uno de los chatbots que analizamos, especialmente ChatGPT o Gemini.

Las políticas de estas empresas tienen un efecto enorme sobre el derecho de acceso a la información. Es probable que este efecto aumente con la integración de la IA generativa en buscar, procesadores de palabras, correo electrónico y otras aplicaciones.

Esto significa que a la sociedad le interesa garantizar que dichas políticas protejan adecuadamente la libertad de expresión. De hecho, el Ley de Servicios DigitalesEl reglamento de seguridad en línea de Europa exige que las llamadas “plataformas en línea muy grandes” evalúen y mitiguen los “riesgos sistémicos”. Estos riesgos incluyen efectos negativos sobre la libertad de expresión e información.

Jacob Mchangama analiza la libertad de expresión en línea en el contexto de la Ley de Servicios Digitales de 2022 de la Unión Europea.

Esta obligación, aplicado imperfectamente hasta ahora por la Comisión Europea, ilustra que un gran poder conlleva una gran responsabilidad. Es No está claro cómo se aplicará esta ley. a la IA generativa, pero la Comisión Europea ha ya ha tomado sus primeras acciones.

Incluso cuando no se aplica una obligación legal similar a los proveedores de IA, creemos que la influencia de las empresas debería exigirles que adopten una cultura de libertad de expresión. Los derechos humanos internacionales proporcionan una guía útil sobre cómo equilibrar responsablemente los diferentes intereses en juego. Al menos dos de las empresas en las que nos centramos: Google y antrópico – lo he reconocido.

Rechazos rotundos

También es importante recordar que los usuarios tienen un grado significativo de autonomía sobre el contenido que ven en la IA generativa. Al igual que los motores de búsqueda, el resultado que reciben los usuarios depende en gran medida de sus indicaciones. Por lo tanto, la exposición de los usuarios al discurso de odio y a la desinformación proveniente de la IA generativa generalmente será limitada a menos que lo busquen específicamente.

Esto es diferente a las redes sociales, donde las personas tienen mucho menos control sobre sus propios feeds. Es posible que se justifiquen controles más estrictos, incluso sobre el contenido generado por IA, a nivel de las redes sociales, ya que distribuyen el contenido públicamente. Para los proveedores de IA, creemos que las políticas de uso deberían ser menos restrictivas sobre la información que los usuarios pueden generar que las de las plataformas de redes sociales.

Las empresas de inteligencia artificial tienen otras formas de abordar el discurso de odio y la desinformación. Por ejemplo, pueden proporcionar contexto o hechos compensatorios en el contenido que generan. También pueden permitir una mayor personalización del usuario. Creemos que los chatbots deberían evitar simplemente negarse a generar contenido. Esto es así a menos que existan motivos sólidos de interés público, como la prevención de material de abuso sexual infantil, algo que las leyes prohíben.

Las negativas a generar contenidos no sólo afectan los derechos fundamentales a la libertad de expresión y al acceso a la información. También pueden empujar a los usuarios hacia chatbots que especializarse en generar contenido de odio y cámaras de eco. Sería un resultado preocupante.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *