Amenazas de la inteligencia artificial para la humanidad, admiten desarrolladores

Compartelo
Pin on PinterestShare on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

 

Destacados de líderes de la industria advirtieron acerca de las amenazas que para la humanidad supondrá algún día el desarrollo de la inteligencia artificial (IA), por lo cual ubican esta tecnología al mismo nivel de la pandemias y las guerras nucleares, indicó un artículo del New York Times.

“Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares”, dice la declaración, que consta de una sola frase, publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta está firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial.

Entre los firmantes figuran altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic.

Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores galardonados con el Premio Turing por su trabajo pionero en redes neuronales y que a menudo son considerados como los “padrinos” del movimiento moderno de la inteligencia artificial, firmaron la declaración, al igual que otros destacados investigadores de ese campo. (El tercer ganador del Premio Turing, Yann LeCun, quien dirige los esfuerzos de Meta para la investigación en inteligencia artificial, no había firmado hasta el martes).

La declaración llega en un momento de creciente preocupación por los posibles perjuicios de la inteligencia artificial. Los recientes avances en los llamados modelos grandes de lenguaje —el tipo de sistema utilizado por ChatGPT y otros chatbots— han suscitado el temor de que la inteligencia artificial pueda utilizarse pronto a gran escala para difundir desinformación y propaganda, o que pueda eliminar millones de puestos de trabajo.

Algunos creen que, si no se hace nada para frenarla, la inteligencia artificial podría llegar a ser tan poderosa como para provocar trastornos a escala social en unos pocos años, aunque los investigadores aún no explican cómo ocurriría eso.

Estos temores son compartidos por numerosos líderes de la industria, lo que los ubica en la inusual posición de argumentar que una tecnología que están desarrollando —y que, en muchos casos, se apresuran a construir más rápido que sus competidores— plantea graves riesgos y debería regularse más de manera más estricta.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente y la vicepresidenta de Estados Unidos, Joe Biden y Kamala Harris, para hablar de la regulación de la inteligencia artificial. En un testimonio ante el Senado estadounidense tras la reunión, Altman advirtió que los riesgos de los sistemas avanzados de inteligencia artificial eran lo bastante serios como para justificar la intervención del gobierno y pidió que fuese regulada por sus daños potenciales.

Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, declaró en una entrevista que la carta abierta representaba una “salida del clóset” para algunos líderes del sector que habían expresado su preocupación —pero solo en privado— por los riesgos de la tecnología que están desarrollando.

“Existe la idea errónea, incluso en la comunidad de la IA, de que solo hay un grupo de catastrofistas”, dijo Hendrycks. “Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas”.

Algunos escépticos sostienen que la tecnología de la inteligencia artificial aún está en ciernes como para suponer una amenaza existencial. En lo que respecta a los sistemas de IA actuales, les preocupan más los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que los peligros a largo plazo.

Pero otros han argumentado que la inteligencia artificial está mejorando con tanta rapidez que ya ha superado el rendimiento humano en algunas áreas y que pronto lo hará en otras. Afirman que la tecnología ha dado muestras de capacidades y conocimientos avanzados, lo que hace temer que la “inteligencia artificial general” (IAG), un tipo de inteligencia artificial que puede igualar o superar el rendimiento humano en una amplia variedad de tareas, no esté muy lejos.

En una entrada de blog publicada la semana pasada, Altman y otros dos ejecutivos de OpenAI propusieron varias formas de gestionar de manera responsable los potentes sistemas de inteligencia artificial. Pidieron cooperación entre los principales fabricantes de IA, más investigación técnica sobre los modelos grandes de lenguaje y la formación de una organización internacional de seguridad de la inteligencia artificial, similar al Organismo Internacional de la Energía Atómica, que trata de controlar el uso de armas nucleares.

Articulos que te pueden Interesar:

Comenta esta Publicación: