Piden detener a la Inteligencia Artificial: «Nos matará a todos»

4 Abr, 2023

Eliezer Yudkowsky cree que hay que detener el avance de la inteligencia artificial de inmediato

El avance sin control de la inteligencia artificial es un tema cada vez más preocupante para los expertos. Desde la irrupción de ChatGPT, el chatbot conversacional capaz de elaborar redacciones, programar y más, la tecnología relacionada con la IA se ha popularizado y ha comenzado a generar impacto en todas las escalas de la sociedad.

Por ello, Elon Musk y otras grandes figuras tecnológicas abogan por una pausa en la investigación y el desarrollo que, para un experto en inteligencia artificial, es la clave para evitar un conflicto sin retorno.

Eliezer Yudkwosky es un reputado investigador estadounidense que ha dedicado más de 20 años de su vida a estudiar temas relacionados con la inteligencia artificial.

Por ello, Yudkowsky es una de las voces más autorizadas a la hora de hablar sobre el tema y verter su opinión sobre el mismo.

Y, tal y como recogen los compañeros del portal francés JeuxVideo, Yudkowsky está preocupado porque, bajo su consideración, la humanidad se dirige hacia su perdición si continúan con la actual evolución de la inteligencia artificial.

El experto en inteligencia artificial cree que lo mejor es apagarla

Según señala el propio Yudkowsky, el problema recae en que los investigadores y las compañías involucradas no pueden estar seguros de si están creando “una IA consciente de sí misma o no”.

Así, considera que esto conlleva una serie de “implicaciones morales” que, a su vez, recaen en lo que significa no estar seguro de algo: “no tienen ni idea de qué están haciendo y deberían parar”.

Por ello, cree que la solución es que la pausa en el entrenamiento de la IA “debe ser permanente en el mundo”.

Tras esto, Yudkowsky asegura que no puede haber excepciones, un asunto en el que menciona a entidades como los gobiernos o los militares.

Así, cree que lo ideal es cerrar todas las granjas y centros de datos, un aspecto al que hay que sumar un límite a la “potencia de cálculo máxima permitida en una inteligencia artificial”.

En estos momentos, la opinión de Yudkowsky puede ser tomada como extrema ya que considera que las IA tomarán el control sobre la humanidad.

No obstante, el creador de ChatGPT ya hizo hincapié en que hay que regularizar la situación para evitar desarrollar una inteligencia artificial que dé verdadero pánico.

Sitios Recomendados

Relacionado

NASA busca voluntarios para “vivir en Marte” durante un año

NASA busca voluntarios para “vivir en Marte” durante un año

El plazo de inscripción dio comienzo el pasado 16 de febrero y se mantendrá abierto hasta el 2 de abril. Eso sí, los requisitos son muy exigentes Llevar al ser humano a Marte es, sin lugar a dudas, el mayor desafío al que se enfrenta la NASA de cara al futuro. Una...

Búnkers subterráneos en España: ¿Y si estalla una guerra nuclear?

Búnkers subterráneos en España: ¿Y si estalla una guerra nuclear?

Imagina que una guerra nuclear comienza y te encuentras en España.. ¿Te has parado a pensar si podrías ponerte a salvo en algún lugar? Si bien Estados Unidos y Rusia aún no han entrado en un conflicto armado, muchas personas en todo el mundo han comenzado a tomar...

¿Cómo reaccionaría la humanidad ante un contacto alienígena?

¿Cómo reaccionaría la humanidad ante un contacto alienígena?

Aunque parezca casi imposible imaginarlo, si la humanidad tuviese un encuentro o contacto alienígena global, sería probablemente una experiencia positiva y no negativa, según una reciente investigación publicada en la revista Frontiers in Psichology. Cuando Orson...

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Manténte informado de las últimas novedades sobre UFO SPAIN

Acceso a Contenido Premium

Obtén acceso privilegiado a nuestro contenido Premium y más beneficios suscribiéndote en nuestro blog.

Síguenos

Únete a nuestra comunidad en nuestras redes sociales.

Close