Tras el auge de la Inteligencia Artificial (IA), con ChatGPT a la cabeza, los temores empiezan a sobrevolar la industria. Por eso, un grupo de expertos en IA, incluyendo al nuevo propietario de Twitter y el fundador de Tesla y SpaceX, Elon Musk, han pedido que se suspenda el entrenamiento de poderosos sistemas de IA por temor a que sea una amenaza para la humanidad.
Estos expertos, junto con Elon Musk, han firmado una carta advierta en donde exponen los peligros potenciales de la IA asegurando también que la carrera para desarrollar sistemas de Inteligencia Artificial está fuera de control.
Por eso, estas figuras clave del sector tecnológico quieren que el entrenamiento de la IA por encima de cierta capacidad se detenga durante al menos seis meses.
Entre los firmantes de esta carta abierta también se encuentra Steve Wozniak, cofundador de Apple, al igual que algunos investigadores de DeepMind.
Hay que recordar que hace poco ChatGPT, de OpenAI, salió a la luz y comenzó su esplendor por la capacidad que tenía este chatbot conversacional de contestar a preguntas concretas del usuario utilizando para ello todas las herramientas disponibles en la Red, aprendiendo conforme se va usando, siguiendo el espíritu de la Inteligencia Artificial. La última novedad de este chatbot es que puede responder preguntas sobre objetos en imágenes, algo que eleva su poder por encima del solo texto.
Precisamente esto es a lo que alude esta carta abierta, del Future of Life Institute y firmada por estas figuras clave del sector tecnológico, pidiendo que se detenga temporalmente en ese nivel, advirtiendo de los riesgos futuros que podría plantear los sistemas más avanzados.
En concreto, la carta asegura que “los sistemas de Inteligencia Artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad”.
Los expertos coinciden en decir que “esta pausa debe ser pública y verificable, e incluir a todos los actores clave”, argumentando que si esa pausa no se puede hacer rápidamente, “los gobiernos deberían intervenir e instituir una moratoria”.
Future of Life Institute es una organización sin ánimo de lucro cuya misión es “dirigir las tecnologías transformadoras lejos de los riesgos extremos a gran escala y hacia el beneficio de la vida”. Eso sí, está financiada principalmente por la Fundación Musk, así como por el grupo Founders Pledge y la Fundación Comunitaria de Silicon Valley, según el registro de transparencia de la Unión Europea publicado por Reuters.
Del mismo modo, los firmantes de esta carta dicen que la IA debe desarrollarse con cuidado pero, según la carta, “los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores” puede “comprender, predecir o controlar de forma fiable”.
Este documento también advierte de que las IA podrían inundar los canales de información con información errónea y reemplazar los trabajos con automatización.
Ahora bien, los firmantes de esta carta no creen que esa pausa de seis meses sea contraproducente, sino que los laboratorios de IA y los expertos independientes podrían “aprovecharla para desarrollar e implementar conjuntamente un grupo de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que son rigurosamente auditados y supervisados por expertos externos independientes”.
Dichos protocolos “deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable”, continúa la carta, explicando además que esa pausa “no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negros impredecibles cada vez más grandes con capacidades emergentes”.
Por eso, apuestan por la investigación y el desarrollo de esta tecnología para hacer que “los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.
Los expertos también apuesta por un trabajo coordinado entre los expertos en esta tecnología y los legisladores para “desarrollar sistemas sólidos de gobierno de IA” que deberían incluir “autoridades reguladoras nuevas y capacidades dedicadas a la IA, supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional”.
También apuestan por “sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos” así como “un sólido ecosistema de auditoría y certificación”.
Del mismo modo, los expertos apuntan que sería necesario tomar “responsabilidad por los daños causados por IA” y “financiación pública sólida para la investigación técnica de seguridad de la IA”, además de “instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA”.
La carta concluye diciendo que “la humanidad puede disfrutar de un futuro floreciente con la IA”, afirmando que es tiempo para “cosechar las recompensas” de lo que se ha creado, dando la oportunidad a la sociedad para adaptarse, por lo que urgen a no precipitarse en el desarrollo de esta tecnología.
Hace tan sólo unos días salía a la luz las preocupaciones del CEO de OpenAI, Sam Altman, sobre los riesgos de la Inteligencia Artificial, advirtiendo de que “tenemos que tener cuidado” al considerar que “estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”.