El astrofísico Stephen Hawking asegura que la humanidad corre mucho peligro de causar su propia destrucción mediante una guerra nuclear, el calentamiento global, los virus creados con ingeniería genética y el actual desarrollo en la ciencia y la tecnología.Seguir a @tecnoycienciaEC !function(d,s,id){var js,fjs=d.getElementsByTagName(s)[0],p=/^http:/.test(d.location)?'http':'https';if(!d.getElementById(id)){js=d.createElement(s);js.id=id;js.src=p+'://platform.twitter.com/widgets.js';fjs.parentNode.insertBefore(js,fjs);}}(document, 'script', 'twitter-wjs');
En una conferencia para la cadena BBC, Hawking advirtió sobre los peligros de autodestrucción a los que se enfrenta la humanidad, según un adelanto de la charla que se emitirá el 26 de enero.
El riesgo de que ocurra una catástrofe en la Tierra en un año concreto es reducido, pero es un hecho que ocurrirá con “casi seguridad” en los próximos 1.000 o 10.000 años, asegura Hawking.
-
Su mensaje es que “hasta entonces deberíamos habernos extendido por el espacio, a otras estrellas, de modo de que un desastre en la Tierra no signifique el final de la raza humana”.
Debido a que las colonias humanas en otros planetas no serán posibles en los próximos 100 años, el científico aseguró que los habitantes del planeta deberían ser “muy cuidadosos” durante ese periodo.
“A pesar de que la posibilidad de que ocurra un desastre en la Tierra parece ahora muy bajo, será casi una certeza en los próximos mil o diez mil años”, apuntó.
Sin embargo, se definió como una persona “optimista” al creer posible que los humanos podrán reconocer a tiempo los peligros de la ciencia y la tecnología para “controlarlos”.
También aconsejó a la nueva generación de jóvenes científicos que su reto consiste en ayudar a entender cómo estos descubrimientos cambiarán el mundo.
En intervenciones anteriores, el astrofísico ya había señalado los riesgos que supondría para el género humano un avance rápido y fuerte de la inteligencia artificial.
Fuente: Agencias