La disputa por la IA de Scarlett Johansson tiene ecos de los viejos tiempos de Silicon Valley

Zoe Kleinman,editor de tecnología, @Z, SK

imágenes falsas

“Moverse rápido y romper cosas” es un lema que sigue rondando al sector tecnológico, unos 20 años después de que lo acuñara un joven Mark Zuckerberg.

Esas cinco palabras llegaron a simbolizar lo peor de Silicon Valley: una combinación de ambición despiadada y una arrogancia bastante impresionante: innovación impulsada por las ganancias sin temor a las consecuencias.

Me acordé de esa frase esta semana cuando la actriz Scarlett Johansson chocó con OpenAI. La Sra. Johansson afirmó que tanto ella como su agente habían rechazado que ella fuera la voz de su nuevo producto para ChatGPT, y luego, cuando se presentó, sonaba igual que ella de todos modos. OpenAI niega que haya sido una imitación intencionada.

Es un ejemplo clásico de exactamente lo que tanto preocupa a las industrias creativas: ser imitadas y eventualmente reemplazadas por la inteligencia artificial.

Hay en todo esto ecos de los gigantes machistas de Silicon Valley de antaño. Buscar el perdón en lugar del permiso como plan de negocios no oficial.

Las empresas tecnológicas de 2024 están muy interesadas en distanciarse de esa reputación.

Y OpenAI no surgió de ese molde. Originalmente era una organización sin fines de lucro comprometida a invertir cualquier ganancia adicional en el negocio.

En 2019, cuando formó una rama con fines de lucro, la compañía dijo que estaría liderada por la parte sin fines de lucro y que habría un límite en los retornos para los inversores.

No todo el mundo estaba contento con el cambio; se decía que había sido una razón clave detrás de la decisión del cofundador Elon Musk de retirarse. Y cuando el CEO de OpenAI, Sam Altman, fue repentinamente despedido por la junta directiva a fines del año pasado, una de las teorías era que quería alejarse más de la misión original. Nunca lo supimos con seguridad.

Pero incluso si OpenAI se ha vuelto más impulsado por las ganancias, todavía tiene que asumir sus responsabilidades.

Cosas de pesadillas

En el mundo de la formulación de políticas, casi todo el mundo está de acuerdo en la necesidad de establecer límites claros para mantener a raya a empresas como OpenAI antes de que ocurra un desastre.

Hasta ahora, los gigantes de la IA han jugado en gran medida sobre el papel. En la primera Cumbre de Seguridad de la IA del mundo hace seis meses, un grupo de jefes tecnológicos firmaron un compromiso voluntario para crear productos responsables y seguros que maximizaran los beneficios de la tecnología de la IA y minimizaran sus riesgos.

Esos riesgos de los que hablaban eran materia de pesadillas: esto era Terminator, Doomsday, el territorio de la IA que se vuelve rebelde y destruye a la humanidad.

La semana pasada, un borrador de informe del gobierno del Reino Unido elaborado por un grupo de 30 expertos independientes concluyó que había “aún no hay evidencia“Que la IA podría generar un arma biológica o llevar a cabo un ciberataque sofisticado. La posibilidad de que los humanos perdieran el control de la IA era “muy polémica”, afirmó.

Y cuando la cumbre se volvió a reunir a principios de esta semana, la palabra “seguridad” había sido eliminada por completo del título de la conferencia.

Algunas personas en el campo han estado diciendo durante bastante tiempo que la amenaza más inmediata de las herramientas de inteligencia artificial es que reemplazarán puestos de trabajo o no podrán reconocer los colores de la piel. Estos son los verdaderos problemas, afirma el Dr. Rumman Chowdhury, experto en ética de la IA.

Y hay más complicaciones. Ese informe afirmaba que actualmente no había una manera confiable de entender exactamente por qué las herramientas de IA generan el resultado que generan; ni siquiera sus desarrolladores están seguros. Y la práctica establecida de pruebas de seguridad conocida como equipo rojo, en la que los evaluadores intentan deliberadamente que una herramienta de inteligencia artificial se comporte mal, no tiene pautas de mejores prácticas.

Y en esa cumbre de seguimiento de esta semana, organizada conjuntamente por el Reino Unido y Corea del Sur en Seúl, las empresas tecnológicas se comprometieron a dejar de lado un producto si no cumplía ciertos umbrales de seguridad, pero estos no se establecerán hasta la próxima reunión en 2025. .

Mientras los expertos debaten la naturaleza de las amenazas que plantea la IA, las empresas de tecnología siguen enviando productos.

Solo en los últimos días se ha visto el lanzamiento de ChatGPT-4O de OpenAI, Project Astra de Google y CoPilot+ de Microsoft. El AI Safety Institute se negó a decir si tuvo la oportunidad de probar estas herramientas antes de su lanzamiento.

OpenAI dice que tiene un proceso de seguridad de 10 puntos, pero uno de sus ingenieros senior centrados en la seguridad renunció a principios de esta semana, diciendo que su departamento había estado «navegando contra el viento» internamente.

«En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes», publicó Jan Leike en X.

Por supuesto, hay otros equipos en OpenAI que continúan centrándose en la seguridad y la protección. Pero no existe una supervisión oficial e independiente de lo que realmente están haciendo estas empresas.

«Los acuerdos voluntarios son esencialmente sólo un medio para que las empresas marquen sus propios deberes», dice Andrew Strait, director asociado del Instituto Ada Lovelace, una organización de investigación independiente. «Básicamente, no reemplaza las reglas legalmente vinculantes y ejecutables que se requieren para incentivar el desarrollo responsable de estas tecnologías».

«No tenemos ninguna garantía de que estas empresas cumplan sus promesas», dice la profesora Dame Wendy Hall, una de las científicas informáticas más destacadas del Reino Unido.

“¿Cómo podemos hacer que rindan cuentas de lo que dicen, como hacemos con las compañías farmacéuticas o en otros sectores donde existe un alto riesgo?”

Se avecinan reglas más estrictas. La UE aprobó su Ley de IA, la primera ley de su tipo, y tiene duras sanciones por incumplimiento, pero algunos argumentan que afectará a los usuarios (que tendrán que evaluar ellos mismos los riesgos de las herramientas de IA) en lugar de a aquellos que desarrollan la IA.

Pero esto no significa necesariamente que las empresas de IA estén libres de responsabilidad.

«Necesitamos avanzar hacia una regulación legal con el tiempo, pero no podemos apresurarnos», afirma el profesor Hall. «Establecer principios de gobernanza global que todos suscriban es realmente difícil».

«También debemos asegurarnos de que estamos protegiendo a todo el mundo y no sólo al mundo occidental y a China».

La cuestión primordial, como siempre, es que la regulación y las políticas avanzan mucho más lentamente que la innovación.

El profesor Hall cree que «las estrellas se están alineando» a nivel gubernamental.

La pregunta es si se puede persuadir a los gigantes tecnológicos para que los esperen.

BBC en profundidad es el nuevo hogar en el sitio web y la aplicación para el mejor análisis y experiencia de nuestros mejores periodistas. Bajo una nueva marca distintiva, le brindaremos nuevas perspectivas que desafían las suposiciones e informes detallados sobre los problemas más importantes para ayudarlo a entender un mundo complejo. Y también mostraremos contenido que invita a la reflexión de BBC Sounds y iPlayer. Estamos empezando poco a poco pero pensando en grande, y queremos saber qué piensas. Puedes enviarnos tus comentarios haciendo clic en el botón a continuación.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *