Se formó un equipo de IA apocalipsis para defenderse de catastróficos escenarios apocalípticos nucleares y bioquímicos.

Se formó un equipo de IA apocalipsis para defenderse de catastróficos escenarios apocalípticos nucleares y bioquímicos.

Inteligencia artificial (IA) está avanzando rápidamente, trayendo beneficios sin precedentes para nosotros, pero también plantea riesgos graves, como amenazas químicas, biológicas, radiológicas y nucleares (QBRN), que podrían tener consecuencias catastróficas para el mundo.

¿Cómo podemos garantizar que la IA se utilice para el bien y no para el mal? ¿Cómo podemos prepararnos para los peores escenarios que podrían surgir de la IA?

HAGA CLIC PARA OBTENER EL BOLETÍN CYBERGUY GRATUITO DE KURT CON ALERTAS DE SEGURIDAD, CONSEJOS RÁPIDOS EN VIDEO, REVISIONES TÉCNICAS Y PRÁCTICAS FÁCILES PARA HACERLO MÁS INTELIGENTE

Cómo OpenAI se está preparando para lo peor

Estas son algunas de las preguntas que OpenAI, un laboratorio líder de investigación en IA y la compañía detrás de ChatGPT, está tratando de responder con su nuevo equipo de Preparación. Su misión es rastrear, evaluar, pronosticar y proteger contra la Riesgos fronterizos de los modelos de IA..

La inteligencia artificial avanza rápidamente y aporta beneficios sin precedentes, pero también plantea graves riesgos. (Cyberguy.com)

MÁS: META CONFIESA QUE ESTÁ UTILIZANDO LO QUE PUBLICAS PARA ENTRENAR SU IA

¿Qué son los riesgos de frontera?

Los riesgos de frontera son los peligros potenciales que podrían surgir de modelos de IA que superen las capacidades de los sistemas de última generación actuales. Estos modelos, que Llamadas OpenAI Los «modelos de IA de frontera» podrían tener la capacidad de generar código malicioso, manipular el comportamiento humano, crear información falsa o engañosa o incluso desencadenar eventos QBRN.

Los peligros de los deepfakes

Por ejemplo, imagine un modelo de IA que pueda sintetizar voces y vídeos realistas de cualquier persona, como un líder mundial o una celebridad. Un modelo de este tipo podría utilizarse para crear deepfakes, que son vídeos o clips de audio falsos que parecen y suenan reales. Los deepfakes podrían utilizarse con diversos fines maliciosos, como difundir propaganda, chantajear, hacerse pasar por personas o incitar a la violencia.

¿ESTÁS PROTEGIDO DE LAS AMENAZAS? VEA LA MEJOR PROTECCIÓN ANTIVIRUS REVISADA AQUÍ

Anticipar y prevenir escenarios de catástrofes de IA

Otro ejemplo es un modelo de IA que puede diseñar moléculas u organismos novedosos, como medicamentos o virus. Un modelo de este tipo podría utilizarse para crear nuevos tratamientos para enfermedades o mejorar las capacidades humanas. Sin embargo, también podría usarse para crear armas biológicas o liberar patógenos dañinos al medio ambiente.

Se podría utilizar un modelo de IA para crear nuevos tratamientos para enfermedades o mejorar las capacidades humanas. (Cyberguy.com)

MÁS: ESTA APLICACIÓN DE CITAS UTILIZA IA PARA ENCONTRAR TU ALMA GEMELA POR TU CARA

Estos son sólo algunos de los posibles escenarios que los modelos de IA de frontera podrían permitir o provocar. El equipo de Preparación tiene como objetivo anticipar y prevenir estos escenarios de catástrofe antes de que sucedan o mitigar su impacto si suceden.

¿Cómo funcionará el equipo de preparación?

El equipo de Preparación trabajará en estrecha colaboración con otros equipos de OpenAI, como el equipo de Seguridad y el equipo de Políticas, para garantizar que los modelos de IA se desarrollen e implementen de manera segura y responsable.

MÁS: CÓMO EL FALSO AI DENTAL DE TOM HANKS. EL VIDEO DEL PLAN ES SÓLO EL COMIENZO DE FALSOS RESPALDOS DE CELEBRIDADES

Gestionar los riesgos de la IA de vanguardia

El equipo también colaborará con socios externos, como investigadores, formuladores de políticas, reguladores y grupos de la sociedad civil, para compartir conocimientos y mejores prácticas sobre la gestión de riesgos de la IA. El equipo realizará diversas actividades para lograr sus objetivos, tales como:

Desarrollar una política de desarrollo informada sobre los riesgos: Esta política describirá cómo OpenAI manejará los riesgos que plantean los modelos de IA de vanguardia a lo largo de su ciclo de vida, desde el diseño hasta la implementación. La política incluirá acciones de protección, como pruebas, auditorías, monitoreo y formación de equipos rojos de modelos de IA, y mecanismos de gobernanza, como comités de supervisión, principios éticos y medidas de transparencia.

Realización de estudios de riesgo: El equipo llevará a cabo investigaciones y análisis sobre los riesgos potenciales de los modelos de IA de vanguardia utilizando métodos tanto teóricos como empíricos. El equipo también solicitará ideas de la comunidad para estudios de riesgo, ofreciendo una premio de 25.000 dólares y una oportunidad de trabajo para las 10 mejores presentaciones.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?

Desarrollar herramientas de mitigación de riesgos: El equipo desarrollará herramientas y técnicas para reducir o eliminar los riesgos de los modelos de IA de vanguardia. Estas herramientas podrían incluir métodos para detectar y prevenir el uso malicioso de modelos de IA, métodos para verificar y validar el comportamiento y el rendimiento de los modelos de IA y métodos para controlar e intervenir en las acciones de los modelos de IA.

Se podría utilizar un modelo de IA para crear deepfakes, que son vídeos o clips de audio falsos que parecen y suenan reales. (Cyberguy.com)

MÁS: PREVENCIÓN DE TIROTES MASIVOS CON DETECCIÓN DE IA: INVENCIÓN INSPIRADA EN LOS NAVY SEALS

¿Porque es esto importante?

La formación del equipo de preparación es un paso importante para OpenAI y la comunidad de IA en general. Muestra que OpenAI se está tomando en serio los riesgos potenciales de su propia investigación e innovación y está comprometido a garantizar que su trabajo se alinee con su visión de crear «inteligencia artificial beneficiosa para todos».

También sienta un ejemplo para que otros laboratorios y organizaciones de IA sigan su ejemplo y adopten un enfoque proactivo y preventivo para la gestión de riesgos de la IA. Al hacerlo, pueden contribuir a generar confianza en la IA entre el público y las partes interesadas y prevenir posibles daños o conflictos que podrían socavar el impacto positivo de la IA.

El equipo de preparación y sus aliados

El equipo de Preparación no está solo en este esfuerzo. Hay muchas otras iniciativas y grupos que están trabajando en temas similares, como la Asociación sobre IA, el Centro para una IA compatible con los humanos, el Future of Life Institute y el Global Catastrophic Risk Institute. Estas iniciativas y grupos pueden beneficiarse de colaborar entre sí y compartir sus conocimientos y recursos.

Las conclusiones clave de Kurt

OpenAI se está tomando en serio los riesgos potenciales de su propia investigación e innovación y se compromete a garantizar que su trabajo se alinee con su visión de crear «inteligencia artificial beneficiosa para todos». (Cyberguy.com)

OBTÉN MÁS DE MIS ALERTAS DE SEGURIDAD, CONSEJOS RÁPIDOS Y FÁCILES TUTORIALES EN VIDEO CON EL BOLETÍN GRATUITO DE CYBERGUY: HAGA CLIC AQUÍ

La IA es una tecnología poderosa que puede traernos grandes beneficios. Sin embargo, también conlleva grandes responsabilidades y desafíos. Necesitamos estar preparados para los riesgos potenciales que la IA podría plantear, especialmente a medida que se vuelve más avanzada y capaz.

El equipo de Preparación es una nueva iniciativa que apunta a hacer precisamente eso. Al estudiar y mitigar los riesgos fronterizos de los modelos de IA, el equipo espera garantizar que la IA se utilice para el bien y no para el mal y que sirva a los mejores intereses de la humanidad y el planeta.

¿Qué opinas del futuro de la IA y su impacto en la sociedad? ¿Le preocupa hacia dónde nos dirigimos con la Inteligencia Artificial? Háganos saber escribiéndonos a Cyberguy.com/Contacto

Para obtener más consejos técnicos y alertas de seguridad, suscríbase a mi boletín informativo CyberGuy Report gratuito.

Hazle una pregunta a Kurt o cuéntanos qué historias te gustaría que cubramos..

Necesitamos estar preparados para los riesgos potenciales que la IA podría plantear, especialmente a medida que se vuelve más avanzada y capaz. (Cyberguy.com)

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Respuestas a las preguntas más frecuentes sobre CyberGuy:

¿Cuál es la mejor manera de proteger sus dispositivos Mac, Windows, iPhone y Android para que no sean pirateados?

¿Cuál es la mejor manera de mantener la privacidad, la seguridad y el anonimato mientras navega por la web?

¿Cómo puedo deshacerme de las llamadas automáticas con aplicaciones y servicios de eliminación de datos?

Copyright 2023 CyberGuy.com. Reservados todos los derechos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *