Lo que hay que saber sobre el debate sobre software abierto versus cerrado
Pocos debates han sido más prolongados y polémicos en la industria informática que uno: ¿Es mejor el “código abierto” que el “cerrado” cuando se trata de desarrollo de software?
Ese debate se ha reavivado a medida que empresas como Google, Meta, OpenAI y Microsoft han divergido sobre cómo competir por la supremacía en los sistemas de inteligencia artificial. Algunos eligen un modelo cerrado mientras que otros adoptan un enfoque abierto.
Esto es lo que debe saber.
¿Qué significa software de código abierto?
El código fuente constituye los componentes básicos de las aplicaciones que utiliza. Los desarrolladores pueden escribir decenas de miles de líneas de código fuente para crear programas que se ejecutarán en una computadora.
El software de código abierto es cualquier código informático que pueda distribuirse, copiarse o modificarse libremente para los fines propios del desarrollador. la organización sin fines de lucro Iniciativa de código abiertouna organización industrial, establece otras estipulaciones y estándares sobre qué software se considera de código abierto, pero se trata en gran medida de que el código sea gratuito y abierto para que cualquiera pueda usarlo y mejorarlo.
¿Cuáles son algunos ejemplos de software de código abierto?
Algunos de los sistemas de software más famosos son de código abierto, como Linux, el sistema operativo sobre el que se construyó el sistema móvil Android de Google. Entre los productos de código abierto más conocidos se incluye Firefox, el navegador web de descarga gratuita creado por la Fundación Mozilla.
Entonces, ¿cuál es el debate abierto versus cerrado y cómo se relaciona esto con la inteligencia artificial?
Empresas tecnológicas como Google, OpenAI y Anthropic han gastado miles de millones de dólares en la creación de sistemas de IA “cerrados” o propietarios. Las personas que no son empleadas de esas empresas no pueden ver ni modificar su código fuente subyacente, ni tampoco los clientes que pagan por usarlo.
Durante mucho tiempo esto no fue la norma. La mayoría de estas empresas abrieron su investigación de IA para que otros tecnólogos pudieran estudiar y mejorar el trabajo. Pero cuando los ejecutivos de tecnología comenzaron a darse cuenta de que la búsqueda de sistemas de IA más avanzados podría valer miles de millonesComenzaron a aislar su investigación.
Las empresas de tecnología sostienen que esto es por el bien de la humanidad porque estos sistemas son lo suficientemente poderosos como para causar daños sociales catastróficos si se ponen en las manos equivocadas. Los críticos dicen que las empresas simplemente quieren mantener la tecnología fuera del alcance de aficionados y competidores.
Meta ha adoptado un enfoque diferente. Mark Zuckerberg, director ejecutivo de Meta, decidió abrir el modelo de lenguaje grande de su empresaun programa que aprende habilidades analizando grandes cantidades de texto digital extraído de Internet. La decisión de Zuckerberg de abrir el modelo de Meta, LLaMA, permite a cualquier desarrollador descargarlo y utilizarlo para crear sus propios chatbots y otros servicios.
En un podcast reciente entrevistaZuckerberg dijo que ninguna organización debería tener “alguna capacidad realmente superinteligente que no sea ampliamente compartida”.
¿Es mejor abierto o cerrado?
Depende de a quién le preguntes.
Para muchos tecnólogos y aquellos que abrazan la cultura hacker incondicional, el código abierto es el camino a seguir. Las herramientas de software que cambiarán el mundo deberían distribuirse libremente, afirman, para que cualquiera pueda utilizarlas para crear tecnología interesante y apasionante.
Otros creen que la IA ha avanzado tan rápidamente que los fabricantes de estos sistemas deberían conservarla estrechamente para protegerla contra el uso indebido. El desarrollo de estos sistemas también cuesta enormes cantidades de tiempo y dinero, y los modelos cerrados deberían pagarse, afirman.
El debate ya se ha extendido más allá de Silicon Valley y de los entusiastas de la informática. Los legisladores en el unión Europea y en Washington han celebrado reuniones y tomado medidas hacia marcos para regular la IA, incluido el riesgos y recompensas de modelos de IA de código abierto.