Translate

04 septiembre 2023

El científico indio Shekhar Mande advierte de los peligros de la Inteligencia Artificial: brotes víricos, guerra nuclear y la EXTINCIÓN HUMANA.


Un científico ha advertido que sentirse demasiado cómodo con la inteligencia artificial (IA) podría suponer un peligro para la humanidad .

El científico indio Shekhar Mande emitió esta advertencia durante una conferencia, diciendo que la humanidad debería estar preparada para que la IA tome el control y cree brotes virales, guerras nucleares e incluso la extinción humana. Según Mande, ex director general del Consejo de Investigación Científica e Industrial de la India, la IA será la principal causa de la extinción humana.

Los expertos en la materia han predicho que la IA será la primera causa de extinción de la humanidad, seguida de una guerra nuclear y brotes virales. Su aclaración sobre las tres amenazas que podrían extinguir a la humanidad invitó a reflexionar sobre el delicado equilibrio entre el progreso, la seguridad y la preservación de la humanidad.

El científico indio no es la primera persona que piensa en los problemas que enfrenta la humanidad con la IA. Si bien los humanos han avanzado en ciencia y tecnología al crear computadoras que piensan como personas, también están surgiendo algunos pensamientos inquietantes. (Relacionado:  Es probable que la IA BORRE a la Humanidad, advierten investigadores de Oxford y Google).

Este giro hacia la IA no redunda en beneficio de la humanidad. Yuval Noah Harari, un asesor cercano de Klaus Schwab del globalista Foro Económico Mundial, afirmó que la IA realizará la difícil tarea de controlar a la clase esclava y hacerla obsoleta.

El argumento de Harari se centra en que la clase dominante emplea esta tecnología contra la clase esclava . Una vez que una masa crítica de la población esclava se dé cuenta completamente de su situación, las máquinas harán el trabajo duro para los sociópatas en la cima.

Alto funcionario estadounidense reconoce los riesgos de la I.A.

Mientras tanto, un alto funcionario estadounidense de ciberseguridad advirtió anteriormente que la humanidad podría estar en riesgo de sufrir un “evento de extinción” si las empresas de tecnología no se autorregulan y no trabajan con el gobierno para controlar el poder de la IA. La advertencia provino de Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) del Departamento de Seguridad Nacional de Estados Unidos (DHS).

La inteligencia mecánica llegará a dirigir al hombre cómodo, hasta desacomodarlo. ¡Le internará!  (Psicografía-profecía de Benjamín Solari Parravicini, 1972)

Los comentarios de Easterly siguieron a la publicación de una declaración de mayo de 2023 en la que participaron cientos de líderes tecnológicos y figuras públicas que compararon la amenaza existencial de la IA con una pandemia o una guerra nuclear. “Mitigar el riesgo de extinción desencadenado por la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, dice la declaración de una sola frase emitida por el Centro para la Seguridad de la IA (CAIS), una organización sin fines de lucro con sede en San Francisco.

Más de 300 personas pusieron sus firmas en la declaración, incluido el director ejecutivo de Open AI, Sam Altman, y el director ejecutivo de Google DeepMind, Demis Hassabis. Otras figuras públicas ajenas a la industria tecnológica también firmaron la declaración, incluido el autor de neurociencia Sam Harris y el músico Grimes.

En respuesta a preguntas sobre la declaración de CAIS, Easterly pidió a los firmantes que se autorregularan y trabajaran con el gobierno.

“Le pediría a estas 350 personas y a los creadores de IA, mientras intentamos establecer un marco regulatorio, que piensen en la autorregulación, piensen en lo que se puede hacer para frenar esto, para no causar un desastre. evento de extinción para la humanidad”, dijo Easterly.

"Si realmente crees que estas capacidades pueden conducir a [la] extinción de la humanidad, unámonos y hagamos algo al respecto".

Por su parte, Altman dijo a los senadores durante una audiencia que respalda la regulación gubernamental como medio para prevenir los efectos nocivos de la IA. Tales medidas regulatorias incluyen la adopción de licencias o requisitos de seguridad necesarios para el funcionamiento de modelos de IA.

"Si esta tecnología sale mal, puede salir bastante mal", afirmó. "Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes".

Siga  FutureTech.news  para obtener más noticias sobre IA.

Mire a Yuval Noah Harai explicar cómo la IA puede destruir a la humanidad a continuación.

 

Este vídeo es del canal Thrivetime Show en Brighteon.com .

Más historias relacionadas:

La adquisición de la IA es INEVITABLE: los expertos advierten que la inteligencia artificial será lo suficientemente poderosa como para controlar las mentes y los comportamientos humanos.

ESCENARIOS EXTREMOS: La inteligencia artificial podría revolucionar el sector tecnológico para siempre o acabar con la raza humana.

Investigadores: las decisiones de la IA podrían causar una CATÁSTROFE “a nivel nuclear”.

Big Tech y las élites globalistas unen fuerzas en reunión secreta para hablar sobre inteligencia artificial.

Elon Musk anuncia la creación de una nueva empresa de IA después de pasar AÑOS criticando el rápido desarrollo de la IA.

Las fuentes incluyen:

SHTFPlan.com

ABCNews.go.com

Brighteon.com

FUTURETECH.NEWS - 23 de agosto de 2023



expr:title='data:newerPageTitle'> Entrada más reciente Entrada antigua Inicio