En esta Sobremesa del programa La Cafetera de Radiocable.com analizamos la última advertencia de Eliezer Yudkowsky, uno de los pioneros en investigación sobre inteligencia artificial, que asegura que si creamos una IA superpoderosa «todos en la tierra morirán» y por ello debería prohibirse de forma indefinida. Y ante la avalancha de expertos pronunciándose en contra la inteligencia artificial, nos preguntamos ¿hay motivo para esta preocupación? ¿Sería efectiva una prohibición? ¿Hay vía intermedia? Además repasamos otros temores informáticos pasados como el Efecto 2000.

Print Friendly, PDF & Email