Código de Conducta compartido para IA

Desde hace unos meses parece que no haya un día que no salga una noticia sobre el tema de moda: la inteligencia artificial. Lo normal es leer artículos sobre sus avances y desarrollos, pero hoy vamos a hablar sobre, quién regula la inteligencia artificial y por qué es necesario limitar esta tecnología.

Para entender un poco sobre la regulación es interesante saber qué piensan personalidades como Sam Altman, el director ejecutivo o CEO de OpenAI o Thomas Kurian el director ejecutivo de Google Cloud. Otra gente a la que hay que escuchar es el presidente de Microsoft y, por supuesto, Elon Musk.

Y es que mucha gente desconoce que el «tuitero jefe» fue uno de los fundadores de la organización Open IA allá en 2015. Esta organización es la responsable del desarrollo de Dall-E el año pasado y posteriormente, el chat conversacional ChatGPT.

En este artículo, exploramos el tema de quién regula la inteligencia artificial y por qué gente como Musk y Sam Altamn nos advierte de sus posibles «peligros» y «riesgos».

¿Quién regula la inteligencia artificial?

Para empezar debemos saber que no existe ninguna entidad mundial ni gobierno que regule la tecnología de la IA. Sin embargo, es un tema necesario. Durante años, la discusión en torno a las implicaciones de la inteligencia artificial ha sido fuente de debate.

Mientras que alguna gente argumenta que el progreso de la IA debería dejarse en manos de individuos y organizaciones privadas, otros expertos sugieren que la supervisión gubernamental es esencial para prevenir posibles daños.

Las únicas regulaciones son sobre inversiones y desarrollo, por ejemplo, España ha creado la Agencia Estatal de la IA con sede en la ciudad de A Coruña.

Comentar que España es el primer país en Europa en crear una sede nacional, pero se trata de aprovechar los recursos de la IA no de regularla. Y es que la creación de un marco legal para la IA es una necesidad, tal y como opinan muchos expertos, científicos y gente como Elon Musk.

Aunque tiene muchas aplicaciones positivas, una IA no regulada tenga un efecto devastador para la humanidad.

Sin un marco regulador, el desarrollo de la IA podría convertirse en motivo de preocupación, pudiendo provocar consecuencias desastrosas tanto para los individuos como para la sociedad en su conjunto.

¿Por qué Elon Musk advierte de la necesidad de limitar la IA?

Elon Musk, director de SpaceX y Tesla, es uno de los defensores más acérrimos de la regulación de la IA al igual que Sam Altman. Recientemente, ambos han expresado su preocupación por los riesgos potenciales de la IA, en particular la idea de que podría ser la mayor amenaza para la humanidad.

Sam Altam lo hizo en una entrevista, al igual que Elon Musk en la Cumbre del Gobierno Mundial de Dubai, Emiratos Árabes Unidos. En dicho evento afirmó lo siguiente: «Uno de los mayores riesgos para el futuro de la civilización es la IA”, recogió la CNBC.

No es la primera vez que Elon Musk se pronuncia sobre los riesgos potenciales de acelerar el desarrollo de la inteligencia artificial.

La persona más rica del mundo ya advertía que el avance incontrolado de la tecnología podría tener consecuencias nefastas e irreversibles para nuestra sociedad.

A la luz de estos riesgos, Musk lleva tiempo instando a los gobiernos a que establezcan leyes que regulen el desarrollo de la IA.

Cree que la tecnología debe guiarse por consideraciones éticas y no por la búsqueda del beneficio y la innovación. Pide a los países y a los líderes de la industria que asuman la responsabilidad del avance de la IA y garanticen su beneficio y uso para la humanidad.

Sin embargo, Musk no se opone al desarrollo de la IA. De hecho, reconoce los beneficios potenciales que aporta la tecnología en el día a día para el ser humano.

Está claro que la advertencia de Musk sobre la necesidad de limitar la IA no debe caer en saco roto y los gobiernos se deben poner las pilas sino quieren que esta tecnología se vaya de las manos.

Por Ivan C

Editor en Unidema, https://www.superacion.net/