La unión hace la fuerza. Así han debido pensar OpenAI, Microsoft y Google en colaboración con Anthropic para formar un organismo industrial llamado Frontier Model Forum. Este organismo tiene como objetivo supervisar el desarrollo de IA y fue anunciado hace unos días.
En concreto, en el apartado de los modelos más avanzados como ChatGPT en su versión 5.0. Precisamente, la regulación de esta tecnología es algo que todo el mundo demandaba y pedía.
Desde expertos y científicos, pasando por directores generales de empresas del sector como Elon Musk o Sam Altman, así como gobiernos como EE.UU. y Europa.
Anthropic, OpenAI, Microsoft y Google se unen para supervisar la IA
Todos ellos pedían regular la IA. Lo mismo opina la industria tecnológica que de la mano de OpenAI, Microsoft y Google se han unido para diseñar una regulación sobre la IA que seguro llega antes que la normativa legal al respecto de Europa.
Y es que las cosas de palacio y la burocracia legal va despacio, no así la tecnología, en especial, cuando el sector se pone de acuerdo como es este caso.
Un ejemplo son las declaraciones de Brad Smith, presidente de Microsoft que declaró que «esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de forma responsable y abordar los retos para que beneficie a toda la humanidad».
Además, recalcó que las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que esta tecnología «sea segura y permanezca bajo control humano».
Se puede decir sin lugar a dudas que Anthropic, OpenAI, Microsoft y Google son las 4 principales empresas más influyentes en materia de inteligencia artificial. Luego están otros gigantes como Meta (con su modelo Llama), Apple y las asiáticas como Alibaba o Baidu. El problema de estas tecnológicas es que van detrás de las 4 anteriores.
Por algo Anthropic, OpenAI, Microsoft y Google han sido las primeras en unirse para formar el Frontier Model Forum, una organización que busca establecer una regulación ética y responsable en el desarrollo de la inteligencia artificial
¿Cuál es el papel de Microsoft, Google, Anthropic y OpenAI en este foro?
Todo el mundo conoce a ChatGPT que pertenece a OpenAI y su alianza con Microsoft. Por otro lado, tenemos a Bard la inteligencia artificial de Google que recientemente llegó a España.
Finalmente, dentro de este grupo de 4 tenemos a Anthropic que ha desarrollado un chatbot llamado Claude, muy similar a ChatGPT. Google ha invertido 300 millones de dólares en Anthropic para desarrollar juntos sistemas informáticos de IA.
El foro en el que se han unido estos 4 gigantes es un nuevo organismo del sector IT centrado en garantizar el desarrollo seguro y responsable de modelos de IA.
La creación de este organismo independiente tiene como objetivo aprovechar la cooperación y experiencia técnica y operativa de sus empresas miembros. De esta forma, todo el ecosistema del sector se aprovecha de sus beneficios y avances.
Para poder entender su papel, sería un poco equivalente al rol que juega al Asociación Internacional de la Energía Nuclear. El rol de este organismo es necesario para asegurar el avance y desarrollo seguro de una tecnología tan importante y disruptiva como es la IA.
La ONU solicitó hace tiempo la creación de un organismo similar que ahora llega de la mano de grandes tecnológicas.
¿Cuál es el papel del Frontier Model Forum creado por las tecnológicas?
Según indican desde la página oficial del foro sus principales objetivos son los siguientes:
- Avanzar en la investigación de la seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y la seguridad.
- Desarrollo seguro: Identificar las mejores prácticas para el desarrollo y despliegue responsables de modelos de vanguardia, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
- Estrecha unión entre todo el mundo: Colaborar con los responsables políticos, el mundo académico, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos para la confianza y la seguridad.
- Desarrollar aplicaciones útiles para la sociedad: Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a afrontar los mayores retos de la sociedad, como la mitigación y adaptación al cambio climático, la detección precoz y prevención del cáncer y la lucha contra las ciberamenazas.
El Foro define los modelos frontera como modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas.
Entre los compromisos adquiridos en una reunión del foro con Joe Biden se incluye la inclusión de marcas de agua en los contenidos de IA.
Así, se facilita la detección de material engañoso, tanto de noticias y texto como de imágenes y vídeos. Descubrir las falsificaciones permite que los expertos puedan distinguir qué tipo de contenido ha sido creado con modelos de IA.
¡NEWS es un portal de noticias a iniciativa de UNIDEMA, Escuela de Formación para estar informado sin perder el tiempo. Si buscas información de calidad sobre economía, geopolítica, negocios y empresas, NEWS Unidema es exactamente lo que necesitas!