El surgimiento de los psicobots con IA

Bienvenidos al 2024, lectores de DFD.

¿Qué pasaría si la IA generativa pudiera permitirte chatear con dobles de personas brillantes, según sus palabras, en cualquier momento? ¿Y qué pasaría si esas personas brillantes estuvieran vivas y no tuvieran voz y voto en el resultado?

Como habrás adivinado, eso ya no es un «qué pasaría si». Hace unos meses, mi colega China y aprendí algo a la vez emocionante y desconcertante: un robot construido enteramente alrededor de la personalidad de un hombre, basado en sus escritos, originalmente sin su consentimiento.

También resultó que no había mucho que pudiera hacer al respecto, a pesar de algunos esfuerzos en el Congreso para que fuera más difícil copiar a personas reales.

La historia del psicólogo Martin Seligman y su homólogo en inteligencia artificial, “Ask Martin”, nos obliga a pensar detenidamente sobre algunas cuestiones que la política tecnológica actual no está preparada para abordar, como qué parte de nosotros mismos “poseemos”, cómo la ley se diferencia de nuestra nuestro propio sentido instintivo de justicia, y también qué versión digital de nosotros puede sobrevivir en el futuro, lo queramos o no.

La historia publicada a finales de la semana pasada en Revista POLITICO y ya ha provocado conversaciones en línea entre investigadores, Éticos de la IA y expertos en derechos de autor.

Aquí hay un extracto:

Martin Seligman, el influyente psicólogo estadounidense, se encontró reflexionando sobre su legado en una cena en San Francisco una tarde de finales de febrero. La lista de invitados era más corta de lo que solía ser: Seligman tiene 81 años y seis de sus colegas habían muerto en los primeros años de COVID. Su pensamiento ya había dejado una profunda huella en el campo de la psicología positiva, pero cuanto más se acercaba a su propia muerte, más obligado se sentía a ayudar a que su trabajo sobreviviera.

A la mañana siguiente recibió un correo electrónico inesperado de un antiguo estudiante de posgrado, Yukun Zhao. Su mensaje fue tan simple como sorprendente: el equipo de Zhao había creado un «Seligman virtual».

Zhao no solo estaba fanfarroneando. Durante dos meses, al introducir cada palabra que Seligman había escrito en un software de inteligencia artificial de vanguardia, él y su equipo construyeron una versión inquietantemente precisa del propio Seligman: un chatbot parlante cuyas respuestas se basaban profundamente en las ideas de Seligman, cuya prosa sonaba más folklórica. versión del propio discurso de Seligman y a cuya sabiduría cualquiera podía acceder.

Impresionado, Seligman hizo circular el chatbot entre sus amigos y familiares más cercanos para comprobar si la IA realmente daba consejos tan bien como él. “Se lo di a mi esposa y ella quedó impresionada”, dijo Seligman.

El robot, alegremente apodado «Pregúntale a Martin», había sido construido por investigadores con sede en Beijing y Wuhan, originalmente sin el permiso o incluso el conocimiento de Seligman.

El Seligman virtual construido en China es parte de una ola más amplia de chatbots de IA modelados en humanos reales, que utilizan nuevos y poderosos sistemas conocidos como grandes modelos de lenguaje para simular sus personalidades en línea. Meta está experimentando con licencia. Avatares de celebridades con IA; ya puedes encontrar chatbots en Internet capacitados en material disponible públicamente sobre personajes históricos muertos.

Pero la situación de Seligman también es diferente y, en cierto modo, más inquietante. Tiene primos en un pequeño puñado de proyectos que han replicado efectivamente a personas vivas sin su consentimiento. En el sur de California, el empresario tecnológico Alex Furmansky creó una versión chatbot de la famosa psicoterapeuta belga Esther Perel extrayendo sus podcasts de Internet. Usó el robot para consolarse a sí mismo durante una reciente angustia, documentando su viaje en una publicación de blog que una amiga finalmente le envió a la propia Perel.

Perel abordó la existencia de AI Perel en el Conferencia SXSW 2023. Al igual que Seligman, estaba más asombrada que enojada por la replicación de su personalidad. Ella lo llamó «intimidad artificial».

Tanto Seligman como Perel finalmente decidieron aceptar los robots en lugar de cuestionar su existencia. Pero si hubieran querido cerrar sus réplicas digitales, no está claro que hubieran tenido una manera de hacerlo. Entrenar IA en obras protegidas por derechos de autor no es realmente ilegal. Si el verdadero Martin hubiera querido bloquear el acceso al falso (una réplica entrenada en su propio pensamiento, usando sus propias palabras, para producir respuestas completamente nuevas), no está claro que hubiera podido hacer algo al respecto…

Las réplicas digitales generadas por IA iluminan un nuevo tipo de zona gris política creada por nuevas y poderosas plataformas de “IA generativa”, donde las leyes existentes y las viejas normas comienzan a fallar.

En Washington, impulsados ​​principalmente por actores y artistas alarmados por la capacidad de la IA de imitar su imagen y voz, algunos miembros del Congreso ya están intentando frenar el aumento de réplicas digitales no autorizadas. En el Comité Judicial del Senado, un grupo bipartidista de senadores, incluidos los líderes del subcomité de propiedad intelectual, están haciendo circular un proyecto de ley titulado Ley NO FALSIFICACIONES que obligaría a los fabricantes de réplicas digitales generadas por IA a licenciar su uso a partir del ser humano original. .

Si se aprueba, el proyecto de ley permitiría a las personas autorizar, e incluso beneficiarse, del uso de su imagen generada por IA, y entablar demandas contra casos de uso no autorizado.

«Cada vez más, vemos que la IA se utiliza para replicar la imagen y la voz de alguien de formas novedosas sin consentimiento ni compensación», escribió la senadora Amy Klobuchar (D-Minn.) a POLITICO en respuesta a las historias de experimentación con IA que involucran a Seligman y Perel. Ella es una de las copatrocinadoras del proyecto de ley. «Nuestras leyes deben mantenerse al día con esta tecnología en rápida evolución», dijo.

Pero incluso si la Ley NO FAKES fuera aprobada por el Congreso, sería en gran medida impotente contra la marea global de tecnología de inteligencia artificial.

Ni Perel ni Seligman residen en el país donde residen sus respectivos desarrolladores de chatbots de IA. Perel es belga; su réplica tiene su base en los EE. UU. Y AI Seligman está entrenada en China, donde las leyes estadounidenses tienen poca fuerza.

“Realmente es uno de esos casos en los que las herramientas parecen lamentablemente inadecuadas para abordar el problema, aunque uno pueda tener intuiciones muy sólidas al respecto”, dijo Tim Wu, un jurista que diseñó las políticas antimonopolio y de competencia de la administración Biden.

Leer el resto en Revista POLITICO.

Una de las historias más notables en la tecnología global es cómo una sola empresa de semiconductores se ha convertido en su propia fuerza geopolítica: TSMC de Taiwán, a la que tanto Estados Unidos como China observan con cautela por su dominio en la fabricación de los chips más avanzados del mundo.

Ahora parece que la empresa podría tener un tipo de influencia diferente. Mientras planea una expansión en Arizona y supuestamente busca hasta 15 mil millones de dólares En subsidios de la Ley CHIPS y Ciencia, la creciente huella de TSMC en Estados Unidos se está convirtiendo en un punto de ataque partidista en la política interna taiwanesa.

Durante un debate televisado en vivo El lunes, antes de las elecciones presidenciales del 13 de enero en la isla, Jaw Shaw-Kong, el candidato a vicepresidente del partido de oposición Kuomintang, culpó al gobernante Partido Democrático Progresista de avivar tensiones con China que podrían ahuyentar al capital extranjero.

«Si Taiwán no tiene un ambiente pacífico, nadie se atreverá a invertir», dijo Jaw, según a Reuters. «Nuestro TSMC quiere huir al extranjero… vaciando nuestro Taiwán».

Su oponente, Hsiao Bi-khim, ex enviado de Taiwán a Estados Unidos, defendió a TSMC como «el orgullo de Taiwán» y dijo que «no debería utilizarse para la competencia o el consumo político».

No está claro cuánta tracción tendrá el ataque. Pero cualquier pequeña inclinación importa: el partido Kuomintang quiere acercar Taiwán a China, mientras que, según Eric Bazail-Eimil de POLITICOuna victoria del gobernante Partido Democrático Progresista significaría que Taiwán seguiría siendo consciente de las preocupaciones de Estados Unidos. Estados Unidos está siguiendo de cerca las elecciones, especialmente teniendo en cuenta el tono que marcarán las relaciones entre Washington y Beijing y La promesa de Biden para defender a Taiwán en caso de que China invada.

—Christine Mui

La Corte Suprema puede ser una de las instituciones más reticentes de Estados Unidos, pero el presidente del Tribunal Supremo quiere que sepas que no le teme a la tecnología, ni siquiera a la IA.

Como Josh Gerstein de POLITICO informaEl presidente del Tribunal Supremo, John Roberts, dedica una parte notable de su nota anual de fin de año sobre el estado de los tribunales federales a una reflexión sobre el papel futuro de la inteligencia artificial en los tribunales federales. «La investigación jurídica pronto será inimaginable sin ella», escribe Roberts. “Obviamente, la IA tiene un gran potencial para aumentar drásticamente el acceso a información clave tanto para abogados como para no abogados. Pero es igualmente obvio que se corre el riesgo de invadir los intereses de privacidad y deshumanizar la ley”.

A lo largo del camino, Roberts ofrece una historia breve y casi peculiar de la adopción de tecnología por parte de la Corte, comenzando con la computadora Wang alquilada por el juez Lewis Powell allá por 1976.

“Varios otros jueces observaron el desempeño satisfactorio de esta novedosa ‘máquina procesadora de textos’ y siguieron su ejemplo al año siguiente”, relata Roberts (aunque, sorprendentemente, la imprenta de plomo caliente para documentos oficiales no se retiró hasta la década de 1980).

Cuando se trata de IA, Roberts ve una clara oportunidad para nuevo software que mejore el acceso de los ciudadanos a los tribunales federales, especialmente ayudando con los detalles del proceso y los formularios judiciales. Aún así, insta a tener precaución cuando se trata del trabajo sustantivo de la ley, señalando tanto las alucinaciones de la IA como la confianza pública básica como problemas continuos. Con un poco de floritura literaria, presenta un argumento final a favor de la importancia perdurable del ser humano como árbitro:

“Los matices importan”, escribe. “Muchas cosas pueden cambiar con una mano temblorosa, una voz temblorosa, un cambio de inflexión, una gota de sudor, un momento de vacilación, una ruptura fugaz en el contacto visual. Y la mayoría de la gente todavía confía más en los humanos que en las máquinas para percibir y sacar las inferencias correctas de estas pistas”.

Esteban Heuser