Microsoft da un nuevo impulso a sistemas de inteligencia artificial más pequeños

En la vertiginosa carrera por construir sistemas de IA generativa, el mantra de la industria tecnológica ha sido más grande es mejor, sin importar el precio.

Ahora las empresas tecnológicas están empezando a adoptar tecnologías de IA más pequeñas que no son tan potentes pero cuestan mucho menos. Y para muchos clientes, esa puede ser una buena compensación.

El martes, Microsoft presentó tres modelos de IA más pequeños que forman parte de una familia de tecnologías que la compañía ha denominado Phi-3. La compañía dijo que incluso el más pequeño de los tres funcionó casi tan bien como GPT-3.5, el sistema mucho más grande que sustentaba el chatbot ChatGPT de OpenAI. cuando sorprendió al mundo tras su lanzamiento a finales de 2022.

El modelo Phi-3 más pequeño cabe en un teléfono inteligente, por lo que se puede utilizar incluso si no está conectado a Internet. Y puede funcionar con los tipos de chips que alimentan las computadoras normales, en lugar de procesadores más caros fabricados por Nvidia.

Debido a que los modelos más pequeños requieren menos procesamiento, los grandes proveedores de tecnología pueden cobrar menos a los clientes por usarlos. Esperan que eso signifique que más clientes puedan aplicar la IA en lugares donde los modelos más grandes y avanzados han sido demasiado costosos de usar. Aunque Microsoft dijo que usar los nuevos modelos sería “sustancialmente más barato” que usar modelos más grandes como GPT-4, no ofreció detalles.

Los sistemas más pequeños son menos potentes, lo que significa que pueden ser menos precisos o sonar más incómodos. Pero Microsoft y otras empresas de tecnología están apostando a que los clientes estarán dispuestos a renunciar a algo de rendimiento si eso significa que finalmente pueden permitirse la IA.

Los clientes imaginan muchas formas de utilizar la IA, pero con los sistemas más grandes «dicen: ‘Oh, pero ya sabes, pueden resultar un poco caros'», dijo Eric Boyd, un ejecutivo de Microsoft. Los modelos más pequeños, casi por definición, son más baratos de implementar, afirmó.

Boyd dijo que algunos clientes, como médicos o preparadores de impuestos, podrían justificar los costos de los sistemas de inteligencia artificial más grandes y precisos porque su tiempo era muy valioso. Pero es posible que muchas tareas no necesiten el mismo nivel de precisión. Los anunciantes en línea, por ejemplo, creen que pueden orientar mejor los anuncios con IA, pero necesitan costos más bajos para poder utilizar los sistemas con regularidad.

“Quiero que mi médico haga las cosas bien”, dijo Boyd. «En otras situaciones, en las que estoy resumiendo opiniones de usuarios en línea, si está un poco fuera de lugar, no es el fin del mundo».

Los chatbots son impulsados ​​por grandes modelos de lenguajeo LLM, sistemas matemáticos que pasan semanas analizando libros digitales, artículos de Wikipedia, artículos de noticias, registros de chat y otros textos seleccionados de Internet. Al identificar patrones en todo ese texto, aprenden a generar texto por sí mismos.

Pero los LLM almacenan tanta información que recuperar lo que se necesita para cada chat requiere una potencia informática considerable. Y eso es caro.

Mientras que los gigantes tecnológicos y las empresas emergentes como OpenAI y antrópico Aunque se han centrado en mejorar los sistemas de IA más grandes, también están compitiendo para desarrollar modelos más pequeños que ofrezcan precios más bajos. Meta y Google, por ejemplo, han lanzado modelos más pequeños durante el último año.

Meta y Google también tienen “de código abierto”Estos modelos, lo que significa que cualquiera puede utilizarlos y modificarlos de forma gratuita. Esta es una forma común para que las empresas obtengan ayuda externa para mejorar su software y alentar a la industria en general a utilizar sus tecnologías. Microsoft también está abriendo el código fuente para sus nuevos modelos Phi-3.

(Los New York Times demandado OpenAI y Microsoft en diciembre por infracción de derechos de autor de contenido de noticias relacionado con sistemas de IA).

Después de que OpenAI lanzó ChatGPT, Sam Altman, director ejecutivo de la compañía, dijo que el costo de cada chat era «centavos de un solo dígito”: un gasto enorme considerando lo que ofrecen servicios web populares como Wikipedia por pequeñas fracciones de centavo.

Ahora, los investigadores dicen que sus modelos más pequeños pueden al menos acercarse al rendimiento de los principales chatbots como ChatGPT y Google Gemini. Básicamente, los sistemas aún pueden analizar grandes cantidades de datos pero almacenar los patrones que identifican en un paquete más pequeño que puede funcionar con menos potencia de procesamiento.

La construcción de estos modelos supone un equilibrio entre potencia y tamaño. Sébastien Bubeck, un investigador y vicepresidente de Microsoftdijo que la compañía construyó sus nuevos modelos más pequeños refinando los datos que se les inyectaban, trabajando para garantizar que los modelos aprendieran de texto de mayor calidad.

Parte de este texto fue generado por la propia IA, lo que se conoce como “datos sintéticos.Luego, los curadores humanos trabajaron para separar el texto más nítido del resto.

Microsoft ha construido tres modelos pequeños diferentes: Phi-3-mini, Phi-3-small y Phi-3-medium. Phi-3-mini, que estará disponible el martes, es el más pequeño (y más barato) pero el menos potente. Phi-3 Medium, que aún no está disponible, es el más potente pero el más grande y caro.

Hacer que los sistemas sean lo suficientemente pequeños como para ir directamente a un teléfono o a una computadora personal «los hará mucho más rápidos y mucho menos costosos», dijo Gil Luria, analista del banco de inversión DA Davidson.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *