13.1 C
Río Grande
InicioEconomía¿Cuándo la inteligencia artificial superaría a los humanos?: advertencia de expertos

¿Cuándo la inteligencia artificial superaría a los humanos?: advertencia de expertos

Los líderes mundiales deberían dedicarse a reducir «el riesgo de extinción» que supone la inteligencia artificial, advirtió en una carta un grupo de expertos del sector tecnológico entre los que se encuentra Sam Altman, uno de los creadores de ChatGPT.

«Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», aseguró el breve texto publicado.

El comunicado fue firmado por decenas de especialistas, incluido el dueño de la empresa OpenAI que creó el robot conversacional ChatGPT, que a finales del año pasado generó un gran revuelo a nivel internacional por su capacidad para realizar tareas complejas como crear obras de arte, ensayos académicos o mantener un diálogo con un ser humano sobre cualquier tema.

Entre los firmantes se encuentran Martín Hellman, Profesor Emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind, y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google, entre otros académicos y personalidades. 

Según el sitio web donde publicaron la carta, expertos, periodistas, legisladores y público «están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA» y aseguraron que la misiva «tiene como objetivo superar los obstáculos y abrir la discusión».

Esta semana, Altman advirtió sobre una posible salida de ChatGPT de Europa si la compañía no pudiera cumplir con la legislación europea sobre inteligencia artificial que se está negociando en los países de esa región.

OpenAI, la entidad que desarrolló ChatGPT, es una empresa privada

Hace dos meses otras personalidades, como el multimillonario y dueño de Tesla, Elon Musk, firmaron otra carta pública en la que pedían «una pausa» en el desarrollo de la IA hasta poder garantizar su total seguridad.

El creador de ChatGPT pidió regular la inteligencia artificial

Sam Altman, el director ejecutivo de OpenAI, creador de la interfaz ChatGPT, dijo hace dos semanas ante un panel del Senado de los Estados Unidos que la regulación de la inteligencia artificial (IA) es «crucial» para limitar los riesgos del uso de esta tecnología.

Altman, la última figura surgida del Silicon Valley, instó al Congreso a imponer nuevas reglas a las grandes empresas de tecnología, a pesar de las profundas divisiones políticas que bloquearon la legislación destinada a regular Internet.

«Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes«, estimó el empresario de 38 años.

«Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante», apuntó al testificar sobre el impacto de la IA ante un subcomité judicial del Senado.

El lanzamiento de ChatGPT, en noviembre, aumentó el interés del público, pero también de las empresas, por la llamada IA generativa, es decir, aquella capaz de crear contenidos, textos, imágenes, sonidos o videos.

Sam Altman es el director ejecutivo de OpenAI y creador de la interfaz ChatGPT

La IA generativa está desatando pasiones y muchos están preocupados por su impacto potencial en muchas profesiones, con posibles recortes masivos de empleos, y fundamentalmente en la sociedad en su conjunto.

Un marco regulatorio para la inteligencia artificial

«OpenAI se fundó con la creencia de que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea serios riesgos», reconoció Altman.

«Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad«, dijo. «Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. (…) Y queremos trabajar con el gobierno para evitar que eso suceda».

El empresario recordó que si bien OpenAI, la entidad que desarrolló ChatGPT, es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a «trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA».

Altman ha expresado su apoyo al establecimiento de un marco regulatorio para la IA, preferiblemente a nivel internacional. «Sé que parece ingenuo proponer algo así, parece muy difícil» de lograr, pero «hay precedentes», aseguró, citando el ejemplo de la Agencia Internacional de Energía Atómica (OIEA).

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará mas empleos nuevos de los que destruirá. «Somos tremendamente creativos», confió el empresario.

Una invitada al evento, la directora de Privacidad y Confianza de IBM, Christina Montgomery, citó su propio puesto como ejemplo de un trabajo que no existía antes del desarrollo de la IA.

MAS NOTICIAS
NOTICIAS RELACIONADAS