Los trabajadores no deberían tratar a todas las empresas de IA por igual

Los trabajadores no deberían tratar a todas las empresas de IA por igual

Zahra Bahrololoumi, directora ejecutiva de Salesforce para el Reino Unido e Irlanda, hablando durante la conferencia anual Dreamforce de la compañía en San Francisco, California, el 17 de septiembre de 2024.

David Paul Morris | Bloomberg | Imágenes falsas

LONDRES – El director ejecutivo del Reino Unido de fuerza de ventas quiere que el gobierno laborista regule la inteligencia artificial, pero dice que es importante que los formuladores de políticas no pongan en el mismo saco a todas las empresas de tecnología que desarrollan sistemas de inteligencia artificial.

En declaraciones a CNBC en Londres, Zahra Bahrololoumi, directora ejecutiva de Salesforce para el Reino Unido e Irlanda, dijo que el gigante estadounidense del software empresarial se toma toda la legislación «en serio». Sin embargo, añadió que cualquier propuesta británica destinada a regular la IA debería ser «proporcional y adaptada».

Bahrololoumi señaló que existe una diferencia entre las empresas que desarrollan herramientas de IA orientadas al consumidor (como OpenAI) y empresas como Salesforce que fabrican sistemas de IA empresariales. Dijo que los sistemas de inteligencia artificial orientados al consumidor, como ChatGPT, enfrentan menos restricciones que los productos de nivel empresarial, que deben cumplir estándares de privacidad más altos y cumplir con las pautas corporativas.

«Lo que buscamos es una legislación específica, proporcional y adaptada», dijo Bahrololoumi a CNBC el miércoles.

«Definitivamente hay una diferencia entre las organizaciones que operan con tecnología orientada al consumidor y tecnología de consumo, y aquellas que son tecnología empresarial. Y cada uno de nosotros tiene diferentes roles en el ecosistema, [but] Somos una organización B2B», dijo.

Un portavoz del Departamento de Ciencia, Innovación y Tecnología (DSIT) del Reino Unido dijo que las normas de IA previstas estarían «muy dirigidas a un puñado de empresas que desarrollan los modelos de IA más potentes», en lugar de aplicar «normas generales sobre el uso de la IA». «

Eso indica que las reglas podrían no aplicarse a empresas como Salesforce, que no crean sus propios modelos fundamentales como OpenAI.

«Reconocemos el poder de la IA para impulsar el crecimiento y mejorar la productividad y estamos absolutamente comprometidos a apoyar el desarrollo de nuestro sector de IA, particularmente a medida que aceleramos la adopción de la tecnología en toda nuestra economía», añadió el portavoz de DSIT.

Seguridad de datos

Salesforce ha estado promocionando fuertemente las consideraciones de ética y seguridad integradas en su plataforma tecnológica Agentforce AI, que permite a las organizaciones empresariales crear sus propios «agentes» de IA: esencialmente, trabajadores digitales autónomos que llevan a cabo tareas para diferentes funciones, como ventas, servicio o marketing.

Por ejemplo, una característica llamada «retención cero» significa que nunca se pueden almacenar datos de clientes fuera de Salesforce. Como resultado, las indicaciones y resultados de la IA generativa no se almacenan en los grandes modelos de lenguaje de Salesforce, los programas que forman la base de los chatbots genAI actuales, como ChatGPT.

Con los chatbots de IA de consumo como ChatGPT, Claude de Anthropic o el asistente de IA de Meta, no está claro qué datos se utilizan para entrenarlos o dónde se almacenan esos datos, según Bahrololoumi.

«Para entrenar estos modelos se necesitan muchos datos», dijo a CNBC. «Y entonces, con algo como ChatGPT y estos modelos de consumo, no sabes lo que está usando».

Incluso Copilot de Microsoft, que se comercializa entre clientes empresariales, conlleva mayores riesgos, afirmó Bahrololoumi, citando un Informe Gartner criticando al asistente personal de inteligencia artificial del gigante tecnológico por los riesgos de seguridad que representa para las organizaciones.

OpenAI y Microsoft no estuvieron disponibles de inmediato para hacer comentarios cuando CNBC los contactó.

Las preocupaciones sobre la IA «se aplican a todos los niveles»

Bola Rotibi, jefe de investigación empresarial de la firma de analistas CCS Insight, dijo a CNBC que, si bien los proveedores de IA centrados en las empresas son «más conscientes de los requisitos a nivel empresarial» en materia de seguridad y privacidad de los datos, sería un error suponer que las regulaciones no examinarían minuciosamente empresas tanto de consumo como de negocios.

«Todas las preocupaciones en torno a cosas como el consentimiento, la privacidad, la transparencia y la soberanía de los datos se aplican en todos los niveles, sin importar si se trata de consumidores o empresas, ya que dichos detalles se rigen por regulaciones como el GDPR», dijo Rotibi a CNBC por correo electrónico. El GDPR, o Reglamento General de Protección de Datos, se convirtió en ley en el Reino Unido en 2018.

Sin embargo, Rotibi dijo que los reguladores pueden sentirse «más seguros» en las medidas de cumplimiento de la IA adoptadas por proveedores de aplicaciones empresariales como Salesforce, «porque entienden lo que significa ofrecer soluciones y soporte de gestión a nivel empresarial».

«Es probable que se lleve a cabo un proceso de revisión más matizado para los servicios de IA de proveedores de soluciones empresariales ampliamente implementados como Salesforce», añadió.

Bahrololoumi habló con CNBC en el Agentforce World Tour de Salesforce en Londres, un evento diseñado para promover el uso de la nueva tecnología de inteligencia artificial «agente» de la compañía por parte de socios y clientes.

Sus comentarios se producen después de que el Partido Laborista del Primer Ministro del Reino Unido, Keir Starmer, se abstuviera de presentar un proyecto de ley sobre IA en el Discurso del Rey, redactado por el gobierno para delinear sus prioridades para los próximos meses. En ese momento, el gobierno dijo que planeaba establecer una «legislación apropiada» para la IA, sin ofrecer más detalles.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *