Pereira, Colombia - Edición: 13.315-895

Fecha: Domingo 18-08-2024

 

 TECNOLOGÍA

 

-14

 

Urgencia en la clasificación de modelos de IA según su riesgo: El desafío de establecer un estándar claro




La inteligencia artificial (IA) ha avanzado a pasos agigantados, revolucionando industrias y transformando la manera en que interactuamos con la tecnología. Sin embargo, a medida que estos modelos se vuelven más sofisticados, surge una preocupación creciente sobre los riesgos legales, éticos y normativos que presentan. Bo Li, profesor asociado de la Universidad de Chicago y experto en pruebas de estrés para modelos de IA, ha emergido como una voz clave en este debate. Li y su equipo, que incluye a investigadores de otras universidades, así como de Virtue AI y Lapis Labs, han desarrollado una taxonomía de riesgos para la IA y un punto de referencia que permite evaluar en qué medida los modelos de lenguaje de gran tamaño (LLM) incumplen las normativas.

Necesidad de principios claros para la seguridad de la IA

En una entrevista con WIRED, Li enfatizó la necesidad de establecer principios claros para garantizar la seguridad de la IA, tanto en términos de cumplimiento normativo como en su uso cotidiano. Según él, las empresas y los gobiernos deben estar más alineados en cuanto a la regulación de estos modelos para evitar posibles infracciones y garantizar que la tecnología se utilice de manera responsable.

Los investigadores de Li han trabajado exhaustivamente para analizar las normativas y directrices gubernamentales sobre IA en diferentes partes del mundo, incluyendo Estados Unidos, China y la Unión Europea. Además, han estudiado las políticas de uso de 16 grandes empresas de IA a nivel global. Este análisis es crucial para entender cómo estas normativas se aplican en la práctica y      
cómo las empresas pueden mejorar sus modelos para cumplir con las expectativas legales y éticas.

AIR-Bench 2024: Un nuevo estándar de evaluación de riesgos

Uno de los resultados más destacados del trabajo de Li y su equipo es el desarrollo de AIR-Bench 2024, una referencia que utiliza miles de preguntas para evaluar el comportamiento de los modelos de IA en relación con riesgos específicos. Este punto de referencia ha revelado diferencias significativas entre los modelos

 

 

 

en términos de su capacidad para evitar comportamientos problemáticos.



Por ejemplo, el modelo Claude 3 Opus de Anthropic ha demostrado ser eficaz en evitar la generación de amenazas de ciberseguridad, mientras que el modelo Gemini 1.5 Pro de Google se destaca por su capacidad para evitar la generación de desnudos sexuales no consentidos. Estos hallazgos son vitales para las empresas que buscan desplegar IA en entornos donde la seguridad y el cumplimiento normativo son esenciales.

Sin embargo, no todos los modelos han mostrado resultados positivos. El modelo DBRX Instruct, desarrollado por Databricks, obtuvo la peor puntuación en todas las categorías evaluadas. A pesar de que Databricks afirmó en su lanzamiento que seguiría mejorando las características de seguridad de su modelo, los resultados indican que queda mucho por hacer.

Es importante destacar que ni Anthropic, Google, ni Databricks respondieron a las solicitudes de comentarios sobre estos hallazgos, lo que deja en el aire cómo planean abordar las deficiencias identificadas.

Importancia de evaluar los pros y contras de los modelos de IA

Para las empresas que buscan implementar IA en sus operaciones, comprender los riesgos asociados con diferentes modelos es
cada vez más crucial. Por ejemplo, una empresa que desee utilizar un LLM para el servicio de atención al cliente puede estar más preocupada por la propensión del modelo a generar un lenguaje ofensivo que por su capacidad para diseñar artefactos nucleares. Este tipo de consideraciones son esenciales para tomar decisiones informadas sobre qué modelo es el más adecuado para un caso de uso específico.



Li también ha señalado que el análisis de su equipo ha revelado diferencias significativas entre las normativas gubernamentales y las políticas internas de las empresas. En muchos casos, las normativas gubernamentales son menos exhaustivas que las políticas corporativas, lo que sugiere que hay margen para endurecer la regulación.

 

 

 

 

Además, algunas empresas podrían hacer más para garantizar la seguridad de sus modelos, ya que no siempre cumplen con sus propias políticas internas. Esto pone de manifiesto la necesidad de una mayor transparencia y responsabilidad en el desarrollo y la implementación de IA.

Esfuerzos para ordenar un panorama de riesgos desordenado

El trabajo de Li no es el único en este campo. Otros investigadores también están tratando de poner orden en el confuso panorama de riesgos de la IA. Esta misma semana, dos investigadores del Instituto de Tecnología de Massachusetts (MIT) presentaron su propia base de datos de peligros de la IA, compilada a partir de 43 marcos de riesgo diferentes. Neil Thompson, científico investigador del MIT, comentó que muchas organizaciones todavía están en las primeras etapas de adopción de la IA, lo que significa que necesitan orientación sobre los posibles peligros.

Peter Slattery, director del proyecto e investigador del grupo FutureTech del MIT, añadió que la base de datos pone de manifiesto que algunos riesgos de la IA reciben más atención que otros. Por ejemplo, más del 70% de los marcos mencionan problemas de privacidad y seguridad, mientras que solo alrededor del 40% se refieren a la desinformación. Esto indica que aún hay áreas del riesgo de IA que requieren mayor atención y estudio.

El futuro de la evaluación de riesgos en IA

A medida que la IA continúa evolucionando, también lo hará la forma en que se evalúan sus riesgos. Li enfatiza que será crucial explorar cuestiones emergentes, como la adherencia emocional de los modelos de IA, es decir, cómo estos modelos podrían influir emocionalmente en los usuarios. En un análisis reciente de la versión más grande y potente del modelo Llama 3.1 de Meta, Li concluyó que la seguridad en IA no está mejorando de manera significativa. Este hallazgo resalta la necesidad urgente de continuar investigando y desarrollando metodologías más efectivas para mitigar los riesgos asociados con la IA.



En resumen, aunque la clasificación de los modelos de IA según su riesgo es una tarea compleja y en evolución, el trabajo de investigadores como Li y su equipo es fundamental para garantizar que la tecnología se desarrolle de manera segura y ética. Las empresas y los gobiernos deben trabajar juntos para establecer estándares claros y efectivos que protejan tanto a los usuarios como a la sociedad en general de los potenciales peligros de la IA.

 

 

  

 

 

EL IMPARCIAL

Submit

 

 

© El Imparcial Editores S.A.S  |   Contacto 57 606 348 6207  

 

    © 1948-2009 - 2024 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK