Se anuncia la aplicación antrópica de IA para iPhone y el plan de negocios para competir con OpenAI

Imágenes de sopa | Cohete ligero | imágenes falsas

Anthropic anunció el miércoles su primera oferta empresarial y una aplicación gratuita para iPhone.

La startup de inteligencia artificial generativa es la empresa detrás de Claude, uno de los chatbots que, al igual que ChatGPT de OpenAI y GoogleGéminis, ha ganado popularidad durante el último año. Anthropic, fundada por ex ejecutivos de investigación de OpenAI, cuenta con patrocinadores que incluyen a Google, Fuerza de ventas y Amazonasy en el último año estuvo cerrado cinco diferentes acuerdos de financiación por un total de unos 7.300 millones de dólares.

El nuevo plan para empresas, denominado Team, ha estado en desarrollo durante los últimos trimestres e implicó pruebas beta con entre 30 y 50 clientes en industrias como tecnología, servicios financieros, servicios legales y atención médica, cofundadora de Anthropic, Daniela Amodei. dijo a CNBC en una entrevista, y agregó que la idea del servicio surgió en parte de que muchos de esos mismos clientes solicitaron un producto empresarial dedicado.

«Gran parte de lo que escuchamos de las empresas es que la gente ya está usando Claude en la oficina», dijo Amodei.

El plan Team ofrece acceso a los tres últimos modelos Claude de Anthropic, con mayores límites de uso, herramientas de administración y gestión de facturación, así como una «ventana de contexto» más larga, lo que significa que las empresas pueden tener «conversaciones de varios pasos» y cargar documentos largos como trabajos de investigación y contratos legales para su procesamiento, según Anthropic. Otras características que vienen incluyen «citas de fuentes confiables para verificar las afirmaciones generadas por IA», según el comunicado.

La oferta Team cuesta $30 por usuario por mes cuando se factura mensualmente. Requiere un mínimo de cinco usuarios.

Aplicación antrópica para iPhone

La primera aplicación para iOS de Anthropic es gratuita para los usuarios de todos los planes y también está disponible a partir del miércoles. Proporciona sincronización con chats web y la posibilidad de cargar fotos y archivos desde un teléfono inteligente.

También hay planes para lanzar una aplicación para Android. «De hecho, acabamos de contratar a nuestro primer ingeniero de Android, por lo que estamos trabajando activamente en la aplicación de Android», dijo Amodei a CNBC, y agregó que el ingeniero comenzará la próxima semana.

Las noticias sobre el plan Team y la aplicación para iOS llegan más de un mes después El debut de Anthropic en Claude 3un conjunto de modelos de IA que, según afirma, son los más rápidos y potentes hasta el momento. Las nuevas herramientas se llaman Claude 3 Opus, Sonnet y Haiku.

La compañía ha dicho que el más capaz de los nuevos modelos, Claude 3 Opus, superó al GPT-4 de OpenAI y al Gemini Ultra de Google en pruebas de referencia de la industria, como conocimiento a nivel universitario, razonamiento a nivel de posgrado y matemáticas básicas. Esta es también la primera vez que Anthropic ofrece soporte multimodal: los usuarios pueden cargar fotografías, gráficos, documentos y otros tipos de datos no estructurados para análisis y respuestas.

Los otros modelos, Sonnet y Haiku, son más compactos y menos costosos que el Opus. La compañía se negó a especificar cuánto tiempo llevó entrenar a Claude 3 o cuánto costó, pero dijo que compañías como Airtable y Asanas Ayudó a probar A/B los modelos. En un comunicado del miércoles, Anthropic confirmó que otros clientes actuales que utilizan Claude incluyen Pfizer, Asana, Zoom, Perplexity AI, Bridgewater Associates y más actualmente.

El campo de la IA generativa se ha disparado durante el último año, con una inversión récord de 29.100 millones de dólares en casi 700 acuerdos en 2023, un aumento de más del 260% en el valor de los acuerdos respecto al año anterior, según PitchBook. Se ha convertido en la frase más comentada en llamadas de ganancias corporativas trimestre tras trimestre. Los académicos y especialistas en ética han expresó preocupaciones importantes sobre la tendencia de la tecnología a propagar prejuicios, pero aun así, rápidamente se abrió paso en las escuelas, los viajes en línea, la industria médica, la publicidad en línea y más.

Por estas fechas el año pasado, Anthropic había completado las rondas de financiación de las Series A y B, pero solo había lanzado la primera versión de su chatbot sin ningún acceso al consumidor ni gran fanfarria. Ahora es una de las nuevas empresas de IA más populares, con un producto que compite directamente con ChatGPT tanto en el mundo empresarial como en el de consumo.

Claude 3 puede resumir hasta unas 150.000 palabras, o un libro de tamaño considerable, del tamaño de «Moby Dick» o «Harry Potter y las Reliquias de la Muerte». Su versión anterior sólo podía resumir 75.000 palabras. Los usuarios pueden ingresar grandes conjuntos de datos y solicitar resúmenes en forma de memorando, carta o historia. ChatGPT, por el contrario, puede manejar alrededor de 3000 palabras.

En enero, OpenAI fue criticada con respecto a su oferta empresarial, por caminando tranquilamente de regreso una prohibición del uso militar de ChatGPT y sus otras herramientas de inteligencia artificial. Sus políticas aún establecen que los usuarios no deben «usar nuestro servicio para dañarse a sí mismos o a otros», incluido «desarrollar o usar armas». Antes del cambio, la página de políticas de OpenAI especificaba que la compañía no permitía el uso de sus modelos para «actividades que tengan un alto riesgo de daño físico, incluyendo: desarrollo de armas». [and] militar y militar.»

La postura de Anthropic sobre el uso militar de Claude es similar a la política actualizada de OpenAI.

«La forma en que trazamos la línea hoy es que no discriminamos según la industria o el negocio, pero tenemos una política de uso aceptable que dice para qué se puede y para qué no se puede usar Claude», dijo Amodei a CNBC, agregando «Cualquier negocio en el mundo que no esté en un país sancionado, por supuesto, [and] cumple con los requisitos comerciales básicos, puede usar Claude para todo tipo de aplicaciones administrativas y cosas así, pero tenemos… una guía muy estricta sobre que Claude no se usa para armas, básicamente cualquier cosa que pueda causar violencia o dañar a las personas».

No te pierdas estas exclusivas de CNBC PRO

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *