Los líderes de OpenAI, creadores de ChatGPT y Dall-E 2, han hablado en un comunicado acerca de lo peligroso que puede resultar que la humanidad cree una súper inteligencia artificial (IA). Alegan que algo tan poderoso podría hacer llevar a la «autodestrucción» y apelan a la regulación del uso de éstas.
La principal medida que han propuesto los desarrolladores es la de crear una institución similar a la Internacional Atomic Energy Agency (IAEA, por sus siglas en inglés), la cual se encarga de vigilar que la energía nuclear se utilice de forma controlada. Por ello, OpenAI contempla la figura de un «perro guardián» encargado de regularizar el uso y desarrollo de inteligencias artificiales en pos de la seguridad de la sociedad. Cabe recordar que el avance de la IA parece incontrolable y empresas como BT ya han anunciado despidos masivos en pro de la Inteligencia Artificial.
Greg Brockman e Ilya Sutskever, cofundadores de OpenAI: «La superinteligencia será la tecnología más poderosa con la que la humanidad haya tenido que lidiar en su historia»
OpenAi dice que la IA dominará un mundo…¿mejor?
Greg Brockman e Ilya Sutskever, cofundadores de la empresa, junto con el jefe ejecutivo Sam Altman, advertían en la nota publicada en su web de que en los próximos 10 años las IA (Inteligencias Artificiales) adquirirán tal destreza que superarán la habilidad maestra de la mayoría de dominios y llevarán a cabo una actividad productiva comparable a la de algunas de las corporaciones más grandes de hoy en día. «Todo ello puede augurar un futuro próspero, pero también supone la posibilidad de un riesgo existencial. Al fin y al cabo, la superinteligencia será la tecnología más poderosa con la que la humanidad haya tenido que lidiar en su historia».
En la misma nota, los tres trabajadores pedían a más corto plazo la coordinación de las empresas que trabajan actualmente en la investigación de las IA. El fin es asegurar el desarrollo de modelos que puedan ser integrados en la sociedad y, a la vez, que garanticen la seguridad de la misma. Aunque para este proyecto sí se pide la colaboración del gobierno con tal de crear un convenio colectivo.
Por otra parte, el Centro para la Seguridad de la IA (CAIS), quienes trabajan para «reducir los riesgos a escala social de las IA», también se ha pronunciado al respecto. Ellos han ido más allá describiendo un futuro donde los humanos «perderemos la capacidad de autogobernarnos» dependiendo completamente de las máquinas; todo ello en pro de un pequeño grupo de personas que controlasen los «sistemas poderosos» haciendo así de las IA una fuerza centralizadora sumiendo a la humanidad en «un sistema de castas entre gobernados y gobernantes».
A pesar de todo, OpenAI asegura que el desarrollo de las IA va a «conducir a un mundo mejor» con resultados que ya se pueden ver en ámbitos como la educación o algunos trabajos. También advierten de que pausar la investigación podría ser peligroso y concluyen afirmando que «el desarrollo continuo de sistemas poderosos merece el riesgo».