Humanizar la IA: Humanizar la IA podría llevarnos a deshumanizarnos

Humanizar la IA: Humanizar la IA podría llevarnos a deshumanizarnos

El escritor irlandés John Connolly dijo una vez: «La naturaleza de la humanidad, su esencia, es sentir el dolor de otro como propio y actuar para eliminar ese dolor».

Durante la mayor parte de nuestra historia, creímos empatía era un rasgo exclusivamente humano: una habilidad especial que nos diferenciaba de las máquinas y otros animales. Pero esta creencia ahora está siendo cuestionada.

A medida que la IA se convierte en una parte más importante de nuestras vidas, entrando incluso en nuestras esferas más íntimas, nos enfrentamos a un enigma filosófico: ¿atribuir cualidades humanas a la IA podría disminuir nuestra propia esencia humana? Nuestra investigación sugiere que sí puede.

Compañerismo digitalizador

En los últimos años, las aplicaciones «compañeras» de IA, como Replika, han atraído a millones de usuarios. Replika permite a los usuarios crear socios digitales personalizados para entablar conversaciones íntimas. Los miembros que pagan por Replika Pro pueden incluso convertir su IA en una «pareja romántica». Físico Compañeros de IA no se quedan atrás. Empresas como JoyLoveDolls venden robots sexuales interactivos con funciones personalizables que incluyen el tamaño de los senos, el origen étnico, el movimiento y respuestas de IA, como gemidos y coqueteo.

Descubre las historias de tu interés

Si bien actualmente se trata de un nicho de mercado, la historia sugiere que las tendencias digitales de hoy se convertirán en las normas globales del mañana. Dado que aproximadamente uno de cada cuatro adultos se siente solo, la demanda de compañeros de IA crecerá.

Los peligros de humanizando la IA

Los seres humanos han atribuido durante mucho tiempo rasgos humanos a entidades no humanas, una tendencia conocida como antropomorfismo.

No sorprende que estemos haciendo esto con herramientas de inteligencia artificial como ChatGPT, que parecen «pensar» y «sentir». Pero, ¿por qué es un problema humanizar la IA?

Por un lado, permite a las empresas de inteligencia artificial explotar nuestra tendencia a formar vínculos con entidades de apariencia humana. Replika se comercializa como «el compañero de IA que se preocupa».

Sin embargo, para evitar problemas legales, la compañía señala en otro lugar que Replika no es sensible y simplemente aprende a través de millones de interacciones de los usuarios.

Algunas empresas de IA afirman abiertamente que sus asistentes de IA tienen empatía e incluso pueden anticipar las necesidades humanas. Tales afirmaciones son engañosas y pueden aprovecharse de las personas que buscan compañía. Los usuarios pueden involucrarse profundamente emocionalmente si creen que su compañero de IA realmente los comprende.

Esto plantea serias preocupaciones éticas. Un usuario dudará en eliminar (es decir, «abandonar» o «matar») a su compañero de IA una vez que le haya atribuido algún tipo de sensibilidad.

Pero, ¿qué sucede cuando dicho compañero desaparece inesperadamente, por ejemplo si el usuario ya no puede pagarlo o si la empresa que lo administra cierra? Si bien el compañero puede no ser real, los sentimientos que se le atribuyen sí lo son.

Empatía: más que una salida programable

Al reducir la empatía a una salida programable, ¿corremos el riesgo de disminuir su verdadera esencia? Para responder a esto, pensemos primero en qué es realmente la empatía.

La empatía implica responder a otras personas con comprensión e interés. Es cuando compartes el dolor de tu amigo mientras te cuenta su dolor, o cuando sientes la alegría que irradia alguien que te importa. Es una experiencia profunda, rica y que va más allá de las simples formas de medición.

Una diferencia fundamental entre los humanos y la IA es que los humanos realmente sienten emociones, mientras que la IA sólo puede simularlas. Esto toca el difícil problema de la conciencia, que cuestiona cómo las experiencias humanas subjetivas surgen de procesos físicos en el cerebro.

Si bien la IA puede simular comprensión, cualquier «empatía» que pretenda tener es el resultado de una programación que imita patrones de lenguaje empático. Desafortunadamente, los proveedores de IA tienen un incentivo financiero para engañar a los usuarios para que se apeguen a sus productos aparentemente empáticos.

La hipótesis de la deshumanización

Nuestra «hipótesis de la deshumanización» destaca las preocupaciones éticas que surgen al intentar reducir a los humanos a algunas funciones básicas que pueden ser replicadas por una máquina. Cuanto más humanizamos la IA, más corremos el riesgo de deshumanizarnos.

Por ejemplo, depender de la IA para el trabajo emocional podría hacernos menos tolerantes con las imperfecciones de las relaciones reales. Esto podría debilitar nuestros vínculos sociales e incluso conducir a una pérdida de habilidades emocionales. Las generaciones futuras pueden volverse menos empáticas y perder la comprensión de las cualidades humanas esenciales a medida que las habilidades emocionales sigan mercantilizándose y automatizandose.

Además, a medida que los compañeros de IA se vuelven más comunes, las personas pueden usarlos para reemplazar las relaciones humanas reales. Esto probablemente aumentaría la soledad y la alienación, precisamente los problemas con los que estos sistemas dicen ayudar.

Recopilación y análisis de las empresas de IA datos emocionales También plantea riesgos importantes, ya que estos datos podrían utilizarse para manipular a los usuarios y maximizar los beneficios. Esto erosionaría aún más nuestra privacidad y autonomía, llevando el capitalismo de vigilancia al siguiente nivel.

Responsabilizar a los proveedores

Los reguladores deben hacer más para responsabilizar a los proveedores de IA. Las empresas de IA deben ser honestas acerca de lo que su IA puede y no puede hacer, especialmente cuando corren el riesgo de explotar las vulnerabilidades emocionales de los usuarios.

Las afirmaciones exageradas de «empatía genuina» deberían declararse ilegales. Las empresas que hagan tales afirmaciones deberían ser multadas y cerrar a los infractores reincidentes.

Las políticas de privacidad de datos también deben ser claras, justas y sin términos ocultos que permitan a las empresas explotar el contenido generado por los usuarios.

Debemos preservar las cualidades únicas que definen la experiencia humana. Si bien la IA puede mejorar ciertos aspectos de la vida, no puede (ni debe) reemplazar la conexión humana genuina.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *