IA. INTELIGENCIA ARTIFICIAL. DESCRIBEN AL PROCESO COMO UN «FRANKENSTEIN IMPREDECIBLE»… Famosos Piden una Prohibición de los Gobiernos

Piden parar proyectos de inteligencia artificial grandes por lo menos durante 6 meses. En tal caso, piden a los gobiernos realizar una intervención.

Manuel Fernández
Si algo hemos aprendido con lo que está ocurriendo entre Google y Microsoft y la inteligencia artificial es que se ha iniciado toda una revolución tecnológica en este sentido. En pos de arrebatarle a la gran G el liderazgo, Microsoft se ha decidido a lanzar todos sus esfuerzos en lanzar no solo una alternativa a Google, sino llenar todos sus servicios de IA. Parece que esto ha llevado a algunos al terreno de la preocupación, como son Steve Wozniak o Elon Musk, y han pedido que se detengan los grandes proyectos de inteligencia artificial.

En una carta abierta firmada por magnates como los ya mencionados, junto a investigadores de renombre de inteligencia artificial, estos han pedido a los laboratorios de IA como OpenAI a que detengan el desarrollo de los sistemas de inteligencia artificial a gran escala. En el texto se habla de «riesgos profundos para la sociedad y la humanidad».

Publicada por la organización sin ánimo de lucro ‘Future of Life Institute’, la carta señala que los laboratorios de inteligencia artificial están completamente fuera de control en el desarrollo de sistemas de aprendizaje automático «que nadie, ni siquiera sus creadores pueden entender, predecir o controlar de forma confiable».

Carta contra la IA

La carta cita directamente al modelo de inteligencia artificial más importante del momento, GPT-4 recientemente lanzado por OpenAI. Usan el modelo como punto de referencia para el desarrollo de estos sistemas. «Hacemos un llamado a todos los laboratorios para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4″.

Pero la carta no se limita a hablar de un parón estándar, sino de una pausa «pública y verificable, e incluir a todos los actores clave». El texto va más allá, pidiendo que en caso de que no se pueda proceder a dicha pausa, sean los gobiernos los que establezcan una intervención e «instituir una moratoria».

Lo cierto es que la carta cita fuentes con investigaciones y declaraciones de otros laboratorios de IA para establecer que estos sistemas puedan plantear estos riesgos. De hecho, mencionan los Principios de IA de Asilomar, una extensión de las ya famosas leyes de la robótica de Asimov con el fin de establecer bases para el desarrollo de futuras plataformas de IA. Estos principios fueron promulgados, precisamente, por el FLI para la organización del Segundo Encuentro de IA Beneficiosa (BAI) del 2017.

Los firmantes de la misiva creen que la adopción de estos sistemas podría representar «un cambio profundo en la historia de la vida en la Tierra», y exigen una planificación y administración cuidadas y medidas. Algo que a sus ojos no está produciendo, explicando que esta carrera fuera de control también busca «implementar mentes digitales más poderosas que nadie».

Advierten que los sistemas de IA actuales y contemporáneos se están volviendo «cada vez más competitivos». Es ahí cuando los firmantes plantean una serie de preguntas. «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?», reza la carta.

Estas decisiones, explican Musk o Wozniak, no se deben delegar «en líderes tecnológicos no elegidos» y piden que su desarrollo se realice «una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables«. La pausa, detallan, les servirá a los laboratorios para que puedan «desarrollar un conjunto de protocolos de seguridad compartidos para el diseño y el desarrollo avanzados de IA». Lógicamente, «rigurosamente auditados y supervisados por expertos externos».

Por último, la carta finaliza pidiendo que los desarrolladores de IA trabajen con los legisladores para «acelerar drásticamente el desarrollo de sistemas sólidos de gobierno en IAs», pidiendo cómo mínimo autoridades reguladoras nuevas y capaces dedicadas única y exclusivamente a la IA. Piden, entre otras cosas, seguimiento de sistemas de alta capacidad, grandes conjuntos de capacidad computacional o sistemas de procedencia y marcas de agua.

La carta acaba su discurso advirtiendo de que deberíamos disfrutar de «un verano de IA» en el que se cosechen recompensas. «La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo así. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados».

OMICRON de EL ESPAÑOL

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *