Elon Musk, Bill Gates, Steve Wozniak y más de 1.000 líderes firman una carta para frenar el avance de la Inteligencia Artificial

Elon Musk, Bill Gates, Steve Wozniak, firman para frenar el avance de la Inteligencia Artificial

Advierten del peligro que puede llegar a tener

El lanzamiento del Chat GPT-4 ha supuesto un paso de gigante en cuanto al avance de la Inteligencia Artificial. Creado por Open IA, este servidor ha mejorado a su antecesor y los líderes mundiales en cuanto a la tecnología han firmado una carta abierta, la cual firman más de 1.000 personalidadespara parar el avance de esta Inteligencia Artificial, advirtiendo de sus peligros si no se crea una regulación que otorgue seguridad.

Entre las personas que han firmado esta carta abierta se encuentran Elon Musk, CEO de Twitter, SpaceX, Tesla y cofundador de AI; Emad Mostaque, CEO de Stability AI; Stuart J. Russell, autor del manual más usado en el campo de la IA o Yoshua BengioBill Gates y Steve Wozniak, cofundador de Apple, también figuran entre los nombres.

Bill Gates

Piden parar el avance de la IA por lo menos seis meses

La propuesta que lanza Future of Life Institute, una organización sin ánimo de lucro es la de pausar el desarrollo de la Inteligencia Artificial por lo menos seis meses hasta que se encuentre un protocolo de seguridad necesario. ¿La razón? Los expertos esgrimen que puede haber ciberataques o la creación de imágenes e informaciones falsas por parte de esta IA.

Inteligencia Artificial

Es una «carrera peligrosa hacia modelos caja negra impredecibles»

«No significa una pausa en el desarrollo de la IA en general, simplemente es un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes», dice la carta.

Inteligencia Artificial

Además, la misiva propone unas bases mínimas para poder controlar mejor a la Inteligencia Artificial: crear autoridades que regulen la IA; supervisión de sistemas de IA; sistemas de marcas de agua para ayudara distinguir lo real de lo que no es; establecer responsabilidades por daños causados por la IA y financiación pública para la investigación de seguridad en este campo.

Fuente: Tiramillas.com