Los protocolos de seguridad de la IA podrían estar pasando por alto la mayor amenaza

La era de la inteligencia artificial ha comenzado y trae consigo muchas preocupaciones nuevas. Se están dedicando mucho esfuerzo y dinero para garantizar que la IA sólo haga lo que los humanos quieren. Pero lo que más deberíamos temer es la IA que hará lo que los humanos quieren. El verdadero peligro somos nosotros.

Ese no es el riesgo que la industria se esfuerza por abordar. En FebreroSe fundó toda una empresa, llamada Synth Labs, con el propósito expreso de “alinear la IA”, haciendo que se comporte exactamente como lo pretenden los humanos. Entre sus inversores se encuentran M12, propiedad de Microsoft, y First Start Ventures, fundada por el ex director ejecutivo de Google, Eric Schmidt. OpenAI, el creador de ChatGPT, ha prometido el 20% de su potencia de procesamiento para “superalineación” que “dirigiría y controlaría los sistemas de inteligencia artificial de manera mucho más inteligente que nosotros”. La gran tecnología está en todo esto.

Y eso probablemente sea algo bueno debido a la clip rápido del desarrollo tecnológico de la IA. Casi todas las conversaciones sobre riesgos tienen que ver con las posibles consecuencias de que los sistemas de IA persigan objetivos que divergen de aquellos para los que fueron programados y que no redundan en interés de los humanos. Todos pueden respaldar esta noción de alineación y seguridad de la IA, pero este es solo un lado del peligro. Imagínese lo que podría suceder si la IA hace hacer lo que los humanos quieren.

“Lo que los humanos quieren”, por supuesto, no es un monolito. Diferentes personas quieren cosas diferentes y tienen innumerables ideas sobre lo que constituye «el bien común». Creo que la mayoría de nosotros estaríamos, con razón, preocupados si una inteligencia artificial estuviera alineada con las visiones de un mundo óptimo de Vladimir Putin o Kim Jong Un.

Incluso si pudiéramos lograr que todos se centraran en el bienestar de toda la especie humana, es poco probable que podamos ponernos de acuerdo sobre cómo sería eso. Elon Musk dejó esto claro la semana pasada cuando compartió en X, su plataforma de redes sociales, que estaba preocupado sobre la IA que impulsa la «diversidad forzada» y está demasiado «despierta». (Esto inmediatamente después de que Musk presentara una demanda contra OpenAI, argumentando que la compañía no estaba a la altura de sus promesa desarrollar IA en beneficio de la humanidad).

Las personas con prejuicios extremos podrían creer genuinamente que sería de interés general para la humanidad matar a cualquiera que consideraran desviado. La IA “alineada con los humanos” es esencialmente tan buena, mala, constructiva o peligrosa como las personas que la diseñan.

Ésa parece ser la razón por la que Google DeepMind, el brazo de desarrollo de IA de la corporación, fundó recientemente una organización interna centrado en la seguridad de la IA y en prevenir su manipulación por parte de malos actores. Pero no es ideal que lo que es “malo” sea determinado por un puñado de individuos en esta corporación en particular (y un puñado de otras similares), con sus puntos ciegos y sus puntos ciegos personales y personales. prejuicios culturales.

El problema potencial va más allá de que los humanos dañen a otros humanos. Lo que es “bueno” para la humanidad, muchas veces a lo largo de la historia, ha llegado a costa de de otros seres sintientes. Ésta es la situación hoy.

Sólo en Estados Unidos tenemos miles de millones de animales sometidos a cautiverio, prácticas tortuosas y negación de sus derechos básicos psicológico y necesidades fisiológicas en un momento dado. Especies enteras son sometidas y sistemáticamente sacrificadas para que podamos tener tortillas, hamburguesas y zapatos.

Si la IA hace exactamente lo que “nosotros” (quienquiera que programe el sistema) queremos, eso probablemente significaría implementar esta crueldad masiva de manera más eficiente, a una escala aún mayor y con más automatización y menos oportunidades para que humanos comprensivos intervengan y señalen algo particularmente horrible.

De hecho, en las granjas industriales, esto es ya sucediendo, aunque en una escala mucho menor de lo que es posible. Los principales productores de productos animales, como Tyson Foods, con sede en Estados Unidos, CP Foods, con sede en Tailandia, y Mowi, con sede en Noruega, han comenzado a experimentar con sistemas de inteligencia artificial destinados a hacer más eficiente la producción y el procesamiento de animales. Estos sistemas se están probando para, entre otras actividades, alimentar a los animales, monitorear su crecimiento, recortar marcas en sus cuerpos e interactuar con los animales mediante sonidos o descargas eléctricas para controlar su comportamiento.

Un objetivo mejor que alinear la IA con los intereses inmediatos de la humanidad sería lo que yo llamaría alineación sensible: la IA actuando de acuerdo con los intereses de todos los seres sintientes, incluidos los humanos, todos los demás animales y, si existiera, la IA sintiente. En otras palabras, si una entidad puede experimentar placer o dolor, su destino debe tenerse en cuenta cuando los sistemas de IA toman decisiones.

A algunos les parecerá una propuesta radical, porque lo que es bueno para toda la vida sensible puede no siempre coincidir con lo que es bueno para la humanidad. A veces, incluso a menudo, puede estar en contra de lo que los humanos queremos o de lo que sería mejor para la mayoría de nosotros. Eso podría significar, por ejemplo, que la IA elimine zoológicos, destruir ecosistemas no esenciales para reducir sufrimiento de animales salvajes o prohibir la experimentación con animales.

Hablando recientemente sobre el podcast “All Thinks Considered”, Peter Singer, filósofo y autor del histórico libro de 1975 “Animal Liberation”, argumentó que los objetivos y prioridades finales de un sistema de IA son más importantes que su alineación con los humanos.

«La pregunta es realmente si esta IA superinteligente será benévola y querrá producir un mundo mejor», dijo Singer, «e incluso si no la controlamos, seguirá produciendo un mundo mejor en el que nuestros intereses se verán beneficiados». tenido en cuenta. A veces pueden verse superados por el interés de los animales no humanos o por los intereses de la IA, pero creo que aun así sería un buen resultado”.

Estoy con Singer en esto. Parece que lo más seguro y compasivo que podemos hacer es tener en cuenta la vida sensible no humana, incluso si los intereses de esas entidades podrían chocar con lo que es mejor para los humanos. Descentrar a la humanidad en cualquier medida, y especialmente hasta este extremo, es una idea que desafiará a la gente. Pero eso es necesario si queremos evitar que nuestro especismo actual proliferando de maneras nuevas y terribles.

Lo que realmente deberíamos pedir es que los ingenieros amplíen sus propios círculos de compasión al diseñar tecnología. Cuando pensamos en “seguro”, pensemos en lo que significa “seguro” para todos los seres sintientes, no sólo para los humanos. Cuando pretendemos hacer que la IA sea “benévola”, asegurémonos de que eso signifique benevolencia para el mundo en general, no solo para una sola especie que vive en él.

Brian Kateman es cofundador de la Reducetarian Foundation, una organización sin fines de lucro dedicada a reducir el consumo social de productos animales. Su último libro y documental es “Carne conmigo a mitad de camino.”

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *