Más de 1,500 líderes y expertos advierten que la IA general es un riesgo enorme y exigen frenar su desarrollo

Un amplio grupo de científicos, pioneros tecnológicos, académicos, figuras políticas y divulgadores de información exige que se prohíba el desarrollo de sistemas de inteligencia artificial (IA) “superinteligentes” hasta que existan evidencias sólidas de que esta tecnología representa más beneficios que riesgos para la humanidad.
La solicitud se plasmó en un comunicado firmado por más de 1,500 expertos y personalidades públicas. El documento reconoce que la IA puede generar avances sin precedentes en distintos ámbitos para beneficio de la sociedad. No obstante, advierte que el desarrollo de la superinteligencia —también conocida como IA general— sin salvaguardas adecuadas constituiría un riesgo sin precedentes que incluso podría amenazar la supervivencia humana.
La lista está encabezada por Geoffrey Hinton, Premio Nobel y profesor emérito de Ciencias de la Computación de la Universidad de Toronto, y Yoshua Bengio, profesor de la Universidad de Montreal, considerado el científico más citado del mundo. Ambos son reconocidos como los “padrinos de la IA moderna”.
A ellos se suman Steve Wozniak, cofundador de Apple, y Richard Branson, fundador de Virgin Group. También respaldan la petición figuras políticas y militares de alto rango como Susan Rice, exasesora de Seguridad Nacional de Estados Unidos; Steve Bannon, estratega de comunicación de Donald Trump; y Mike Mullen, exjefe estadounidense del Estado Mayor Conjunto. La lista se complementa con diversas personalidades y comunicadores, entre ellos Glenn Beck, Will.i.am, Yuval Noah Harari y los duques de Sussex, Harry y Meghan Markle.
“Muchas empresas líderes en inteligencia artificial tienen como objetivo declarado desarrollar superinteligencia en la próxima década, capaz de superar significativamente a los humanos en prácticamente todas las tareas cognitivas. Esto ha suscitado inquietudes que van desde la obsolescencia económica y el desempoderamiento humano, la pérdida de libertad, derechos civiles, dignidad y control, hasta riesgos para la seguridad nacional e incluso la posible extinción de la especie”, señala la declaración.
Ante estas preocupaciones, los firmantes demandan que se restrinja el desarrollo de sistemas de IA general hasta que exista un consenso científico amplio sobre su seguridad y control, así como una aceptación pública extendida.
Mark Beall, exdirector de Estrategia y Política de IA del Departamento de Defensa de Estados Unidos y uno de los signatarios, subraya que “cuando los investigadores de inteligencia artificial advierten sobre la extinción y los líderes tecnológicos construyen búnkeres catastróficos, la prudencia exige que escuchemos. La superinteligencia sin las debidas salvaguardias podría ser la máxima expresión de la arrogancia humana: poder sin límites morales”.
La iniciativa fue impulsada por el Future of Life Institute, una organización sin fines de lucro que desde hace más de una década analiza los riesgos a gran escala asociados con la inteligencia artificial, con el propósito de orientar su desarrollo en beneficio de la humanidad.
Hace dos años, esta misma institución publicó una carta firmada por varios especialistas en tecnología que pedía una pausa en el entrenamiento de sistemas de IA más potentes. La nueva propuesta, en contraste, exige una prohibición total y destaca por la cantidad y diversidad de sus firmantes.
Dudas y preocupaciones sobre el desarrollo de la IA general
El comunicado sostiene que, al menos en Estados Unidos, existe un descontento generalizado frente al acelerado avance de la inteligencia artificial y la ausencia de regulaciones sólidas. Cita una encuesta reciente realizada a 2,000 adultos estadounidenses que reveló que solo el 5% de los participantes aprueba el desarrollo rápido y poco regulado de esta tecnología.
En contraste, el sondeo mostró que 64% de los encuestados considera que la IA sobrehumana no debería desarrollarse hasta que se demuestre que es segura y controlable. Además, el 73% se pronunció a favor de una regulación estricta sobre los sistemas avanzados de inteligencia artificial.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/expertos-advierten-que-la-ia-general-es-un-riesgo-piden-prohibir-su-desarrollo