Sam Altman, el CEO de OpenAI pide regular la inteligencia artificial para evitar sus

La Inteligencia Artificial es el tema de moda. Primero fue Dall-E, luego el chat conversacional ChatGPT y hace unas semanas Google con su IA llamada Bard. El auge de esta tecnología pretende revolucionar el mundo tal y como lo conocemos, pero no todo es positivo.

Sam Altman, el director ejecutivo o CEO de OpenAI, la organización responsable de ChatGPT conoce de primera mano este tema y advierte de la importancia de regular esta tecnología.

¿Quién es Sam Altman y por qué deberíamos escucharlo?

Sam Altman es un empresario tecnológico de EE.UU. de 37 años. Se graduó de la Universidad de Stanford con un grado en Informática e Ingeniera Eléctrica. Desde entonces, ha trabajado en proyectos relacionados con el software e Inteligencia Artificial, tanto como inversor en startups como CEO de OpenAI.

Es conocido por ser el máximo responsable de ChatGPT, aunque también se dedica a invertir en todo tipo de sectores, como la fusión nuclear.

Su conocimiento y experiencia en el sector de la IA hacen que sea una de las voces autorizadas sobre cualquier tema relacionado con el uso de la IA, sus posibilidades y riesgos.

Precisamente, hablando de su potencial y utilidades, Altman advirtió en un su perfil de Twitter de los peligros de la Inteligencia Artificial, así como de la necesidad de regular su uso.

El director ejecutivo de OpenAI está de acuerdo con Elon Musk, que también advirtió sobre el riesgo del uso indebido de la IA en el pasado. No hay que olvidar que el tuitero jefe fue uno de los primeros fundadores de OpenAI en sus inicios, allá por 2015.

En esta línea de preocupación, Sam Altman señala que uno de los problemas que plantean los chatbots de IA es que «la gente se inquieta al hablar con un chatbot, aunque sepa lo que está pasando realmente«.

Miedos de la Inteligencia Artificial y la necesidad de regular su uso

Mientras que su empresa OpenAI continúa desarrollando herramientas Herramientas basadas en la IA, como ChatGPT, Altman también reconoce que hay algunos problemas con el uso indebido y malicioso de la AI y del aprendizaje automático. Por ejemplo, que existe la necesidad de regular el empleo de la inteligencia artificial.

En su perfil, publicó lo siguiente: «la regulación será fundamental y llevará tiempo averiguarlo«. En línea con su argumento también advirtió de que «no estamos tan lejos de que la IA sea un peligro«.

Y es que, según este empresario tecnológico «aunque las herramientas de IA de la generación actual no dan mucho miedo, creo que potencialmente no estamos tan lejos de que las haya«.

Aunque Altman ha hecho grandes contribuciones al campo de la Inteligencia Artificial, no está libre de preocupación. Se ha expresado en términos bastante cautelosos sobre el uso potencialmente peligroso de la Inteligencia Artificial.

De hecho, el CEO de OpenAI ha calificado el imparable desarrollo de la IA como «moneda al aire«.

«El gobierno estadounidense, y el resto de gobiernos, deberían regular el desarrollo de la SMI«, escribió, refiriéndose a la inteligencia de máquina sobrehumana.

Prohibiciones de uso de la IA

Junto con el desarrollo de la Inteligencia Artificial, cada vez son más las personas que se muestran preocupadas por la posibilidad de que una AI pueda ser utilizada con fines maliciosos.

En este sentido, las escuelas de Nueva York limitaron el uso de esta tecnología por el peligro de que los alumnos usen esta herramienta para hacer deberes, entre otros usos indebidos.

Estas preocupaciones se reflejan en la reciente entrevista con el fundador de OpenAI, donde reconoce el peligro de que una IA pueda ser utilizada por grupos terroristas o gobiernos autoritarios para sugerir técnicas nuevas para controlar a la gente.

Aunque reconoce estas dificultades, Sam Altman se niega a oponerse completamente al desarrollo de la IA, ya que piensa que el avance de esta tecnología es imparable. Prueba de ello es que si hoy dejase de existir ChatGPT saldrían otras IA.

De hecho, Google y empresas chinas (Baidu y Alibaba) están lanzando sus propias tecnologías forzadas por el chatbot de OpenAI.

OpenAI está trabajando constantemente para mejorar los algoritmos de Inteligencia Artificial con el fin de asegurar que los usos positivos se utilicen con mayor frecuencia que los usos negativos.

La IA da sesgos e información incorrecta en algunas de sus respuestas

Sin embargo, la tecnología no está libre de sesgos, peligros y contraindicaciones. Este fenómeno se ha observado recientemente con el motor de búsqueda Bing de Microsoft, impulsado por ChatGPT.

La semana pasada, el buscador Bing inquietó a algunas personas cuando empezó a dar respuestas chocantes a las consultas, que iban desde sarcásticas y argumentativas hasta alguna racistas o con sesgos sexistas.

Lo mismo sucedió con Bard que también se equivocó en dar una respuesta cuando presentaron la IA de Google hace unas semanas.

Por todos estos motivos, el director ejecutivo de ChatGPT pide esfuerzos a las organizaciones y gobiernos para regular y asegurar que la IA se utilice con fines positivos, y no para el mal.

Precisamente, el reto de la tecnología de la IA es su uso indebido. Y es que como dice un antiguo adagio que hace alusión a la espada de Damocles, «Un gran poder conlleva una gran responsabilidad.«

Por Ivan C

Editor en Unidema, https://www.superacion.net/