Google regala parte de su tecnología de IA
Cuando Meta compartió el año pasado el código informático en bruto
necesario para construir un chatbot, las empresas rivales dijeron
que estaba lanzando al mundo una tecnología poco conocida y quizá
incluso peligrosa.
Ahora, en un indicio de que los detractores de compartir la
tecnología de IA están perdiendo terreno frente a sus homólogos del
sector, Google está tomando una medida similar. El miércoles, Google
hizo público el código informático que alimenta su chatbot en línea,
después de mantener oculto este tipo de tecnología durante muchos
meses.
Al igual que Meta, Google afirmó que las ventajas de compartir
libremente la tecnología —denominada modelo de lenguaje de gran
tamaño— superaban los riesgos potenciales.
La empresa anunció en una publicación de blog que va a lanzar dos
modelos de lenguaje de IA que podrían ayudar a que empresas externas
y desarrolladores de software independientes generen chatbots en
línea similares al propio chatbot de Google. Llamadas Gemma 2B y
Gemma 7B, no son las tecnologías de IA más potentes de Google, pero
la empresa afirma que compiten con muchos de los sistemas líderes
del sector.
“Esperamos volver a involucrar a la comunidad de desarrolladores
externos y asegurarnos” de que los modelos basados
|
|
en Google se conviertan en un estándar industrial para la
construcción de la inteligencia artificial moderna, declaró en una
entrevista Tris Warkentin, director de gestión de productos de
Google DeepMind.
Google afirmó que no tenía planes de liberar su modelo estrella de
inteligencia artificial, Gemini, de forma gratuita. Al ser más
eficaz, Gemini también podría ocasionar más daño.
Este mes, Google comenzó a cobrar por el acceso a la versión más
potente de Gemini. Al ofrecer el modelo como un servicio en línea,
la empresa puede controlar más estrechamente esa tecnología.
Preocupadas por la posibilidad de que las tecnologías de IA se
utilicen para difundir desinformación, discursos de odio y otros
contenidos tóxicos, algunas empresas, como OpenAI, creadora del
chatbot en línea ChatGPT, son cada vez más reservadas sobre los
métodos y el software en los que se basan sus productos.
Pero otros, como Meta y la empresa emergente francesa Mistral, han
defendido que compartir libremente el código —lo que se denomina
“open sourcing” o “código abierto”— es la estrategia más segura
porque permite a personas ajenas a la empresa detectar problemas con
la tecnología y sugerir soluciones.
Yann LeCun, científico jefe de Meta, ha afirmado que los
consumidores y los gobiernos se negarán a adoptar la inteligencia
artificial a menos que esté fuera del control de empresas como
Google, Microsoft y Meta.
“¿Queremos que todos los sistemas de inteligencia artificial estén
bajo el control de un par de poderosas empresas estadounidenses?”,
declaró el año pasado a The New York Times.
En el pasado, Google puso en código abierto muchas de sus
principales tecnologías de IA, incluida la tecnología básica para
los chatbots
|
|
de IA. Pero bajo la presión competitiva de OpenAI, se volvió más
reservado sobre cómo eran construidas.
La empresa decidió volver a poner su inteligencia artificial a disposición de
los usuarios de manera más gratuita debido al interés de los desarrolladores,
declaró en una entrevista Jeanine Banks, vicepresidenta de relaciones con
desarrolladores de Google.
Mientras se preparaba para dar a conocer sus tecnologías Gemma, la empresa
afirmó que había trabajado para garantizar que fueran seguras y que su uso para
difundir desinformación y otro material dañino infringía su licencia de
software.
“Nos aseguramos de que, en la medida de lo posible, estamos lanzando enfoques
completamente seguros tanto en la esfera propietaria como en la abierta”, dijo
Warkentin. “Con los lanzamientos de estos modelos 2B y 7B, estamos relativamente
seguros de que hemos adoptado un enfoque extremadamente seguro y responsable
para asegurarnos de que puedan aterrizar bien en la industria”.
Sin embargo, actores maliciosos podrían seguir utilizando estas tecnologías para
causar problemas.
Google está permitiendo descargar sistemas que han sido entrenados con enormes
cantidades de texto digital extraído de internet. Los investigadores llaman a
esto “liberar los pesos”, refiriéndose a los valores matemáticos particulares
aprendidos por el sistema a medida que analiza los datos.
Analizar todos esos datos suele requerir cientos de chips informáticos
especializados y decenas de millones de dólares. Son recursos de los que carecen
la mayoría de las organizaciones, por no hablar de personas particulares.
|