Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
+3
Khasthrom
Crolaki619
sevillafc
7 participantes
Página 1 de 1.
Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
El futuro de la humanidad está seriamente amenazado. En los últimos meses se han sucedido numerosos informes oficiales que reflejan la preocupación de agencias de seguridad y organismos internacionales sobre esta posibilidad. Desde la NASA a la ONU, pasando por el Pentágono, han analizado en documentos internos los riesgos de un posible colapso de la civilización. Un escenario cada vez más cercano sobre el que el departamento de defensa norteamericano cuenta con un plan de contingencia bajo el que un Comando Estratégico del ejército de EEUU se instruye en las labores propias de una gran catástrofe planetaria.
Los riesgos que señalan estos organismos son numerosos y diversos, aunque todos tienen como telón de fondo los problemas de escasez: crisis alimentarias, energéticas, económicas (incremento de la desigualdad social), climáticas y del agua. La convergencia de estas generaría una ‘tormenta perfecta’ tras la cual se incrementaría la violencia y los enfrentamientos entre países por el acceso los recursos, la generalización de la pobreza, el deterioro democrático o las migraciones masivas.
Las instituciones universitarias y los científicos más reputados del mundo no han estado ajenos a la lectura del ‘colapso de la civilización’, sin dejar de aportar soluciones a cada uno de los retos a los que nos enfrentamos. El archiconocido Stephen Hawking, el cosmólogo y astrofísico de Cambridge Martin Rees, el ingeniero informático y cofundador de Skype Jaan Tallinn o el exasesor científico del gobierno británico y de la Royal Society Robert May, entre otros, son algunos de los cerebros científicos que ya están trabajando codo con codo para preparar diferentes respuestas a los “desastres potencialmente devastadores para la civilización”.
El denominado Center for the Study of Existential Risk (CSER) se centrará en identificar los eventos catastróficos que podrían devastar el mundo e, incluso, “provocar la extinción de la especie humana”. Su primer informe sobre los “riesgos civilizatorios” se facilitará a los gobiernos de todo el mundo, así como a las sociedades científicas, para animarlos a ser copartícipes de las posibles soluciones. Un trabajo similar al del Future of Humanity Institute (FHI) de la Universidad de Oxford.
Uno de los investigadores del FHI, el científico Anders Sandberg, ha publicado un medio especializado los cinco “riesgos existenciales” que podrían poner fin a la historia de la humanidad “si no desarrollamos las tecnologías necesarias para evitarlos o, al menos, mitigarlos”.
Invierno nuclear
El principal fantasma de la Guerra Fría todavía no se ha disipado. Aunque este destructivo armamento no se emplea desde la Segunda Guerra Mundial, “es un error descartar la posibilidad de una guerra nuclear hoy en día”.
Durante la crisis de los misiles en Cuba se estuvo a punto de apretar el botón rojo, al igual que en otras confrontaciones de la Guerra Fría. Las tensiones internacionales han descendido desde entonces y, por tanto, también las posibilidades, aunque estas se elevan al uno por mil, según los cálculos de probabilidades realizados por los miembros del instituto.
El desencadenamiento de un enfrentamiento armado mundial de estas características generaría millones de muertes, pero el colapso de la civilización vendría provocado por las consecuencias posteriores sobre el planeta: el invierno nuclear. Es decir, los cambios climáticos provocados por este tipo de guerra, así como la contaminación de suelo, que no sería cultivable, del aire y del agua. Como consecuencia, crisis alimentarias y de acceso a los recursos hídricos que aceleraría las infecciones mortales y las epidemias de hambre.
Resistencia a los antibióticos y expansión de nuevos virus
Hace unos días, la Organización Mundial de la Salud (OMS) advertía sobre la expansión de cuatro nuevos virus muy peligrosos. Su directora general, Margaret Chan, explicó que se trata del Síndrome Respiratorio de Oriente Medio por Coronavirus (MERS-CoV), con la mayoría de casos en Arabia Saudí y los Emiratos Árabes Unidos, de los virus H5N1 y H7N9 de la gripe aviar, y del ébola, del que se ha registrado recientemente un grave brote en Guinea Conakry.
Los peligros en este caso se focalizan en la rapidez con la que se pueden expandir estos virus por todo el mundo y en el fácil acceso a las armas biológicas, impulsando así el denominado bioterrorismo. Por otra parte, la cada vez más extendida resistencia genética a los medicamentos antibióticos puede provocar la expansión de infecciones mortales y convertir en intratables cientos de viejas enfermedades.
Nanotecnología
El control y manipulación de la materia a nanoescala y con precisión atómica no es mala en sí misma. Como ocurre con la inteligencia artificial tiene grandes posibilidades, pero el abuso y la mala praxis son difíciles de evitar. Como remarca el científico de Oxford, podemos caer en una espiral autodestructiva. Un ejemplo de ello es el desarrollo de armas autónomas. Los comúnmente denominados robots asesinos son ya una realidad, y no nos referimos solamente a los drones militares, sino a otras armas que ya están usando diversos ejércitos. Tanto es así, que las armas letales autónomas se han convertido en una seria preocupación internacional hasta el punto de que la ONU discutió hace escasos días en Ginebra su posible prohibición o, al menos, limitación.
En la reunión participaron diplomáticos y responsables militares de los 117 países firmantes de la Convención de Naciones Unidas para la Prohibición de Armas Inhumanas. La misma que decidió prohibir en la década de los 90 las armas láser cegadoras. Eso sí, una vez que ya habían sido utilizadas en el campo de batalla. Un extremo que el director de la sede europea de la ONU, Michael Moeller, pretende evitar ahora: “El derecho internacional suele responder a las atrocidades y al sufrimiento una vez que ya han ocurrido, pero ahora tenemos la oportunidad de tomar medidas preventivas”.
Inteligencia artificial
“El problema de este tipo de desarrollo es que se enmarque al margen de las leyes morales y éticas. Si definitivamente se produce este salto en al vacío de la inteligencia artificial, sin antes fijar unas normas y restricciones concretas, podría suponer un gran desastre”, advierte el científico del FHI. Aunque Sandberg reconoce que es complicado adelantarse a las consecuencias de los avances tecnológicos, “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”. La seguridad, añade, es prácticamente inexistente en este terreno, pues seguimos aplazando los problemas innatos a la inteligencia artificial.
Otras amenazas todavía desconocidas
El futuro es impredecible, y como tal existe una serie de peligros para el futuro de la humanidad que todavía no han podido ser identificados. Por otra parte, hay que tener en cuenta factores impredecibles como puede ser el impacto de un meteorito. “La tasa de extinción de las especies naturales se sitúa en el millón de años”. Unos datos a tener en cuenta a pesar de que son mucho menores que los de una guerra nuclear o bacteriológica.
Leer más: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford - Noticias de Alma, Corazón, Vida http://bit.ly/1ifXoVL
____________________________________________
Congresista x4 / Ministro Comunicación x30 / Vice-Ministro Comunicación x6 / ex-Presidente ASD / Presidente del Partido Viejuno x2 / Participante fusión IDE+UPeR / Ex-Embajador en Venezuela x3 / Tutor IAN x7 / Ex-Miliciano COE & LH / Ex-teniente y miembro FFAA...
Excelentísimo Señor Don Sevillafc, Duque de (e)Sevilla y Grande de (e)España
Vizcondado de (e)Iznájar, con antigüedad de 1466, otorgado a sevillafc el 19-02-2017.
Vizcondado de (e)Iznájar, con antigüedad de 1466, otorgado a sevillafc el 19-02-2017.
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Aún no conocen a Ramso

____________________________________________
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
¿Por qué no está EEUU en la lista?
Khasthrom- Deus vult
- Mensajes : 5652
Fecha de inscripción : 07/09/2011
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Si no hay zombis en esa lista nadie se lo tomará en serio.
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Amenazas muy nerds.... pero vamos a la calle. A medida que nos recorten derechos la falta de salud y seguridad se hará mas palpable: falta de atención esencial, de vertederos, de contaminación de agua, alimentos enfermedades, etc.
Esto ya está sucediendo y no es por una conjura, es por el descontrol del capitalismo y curiosamente el avance tecnológico que hace que donde hacían falta 100 para recoger trigo ahora solo hace falta 1 con una cosechadora. El desequilibrio entre lo que cobraba en impuestos a los 100 y lo que le cobra a 1 es una pérdida cada vez mayor de recursos para mantener el sistema.
Esto ya está sucediendo y no es por una conjura, es por el descontrol del capitalismo y curiosamente el avance tecnológico que hace que donde hacían falta 100 para recoger trigo ahora solo hace falta 1 con una cosechadora. El desequilibrio entre lo que cobraba en impuestos a los 100 y lo que le cobra a 1 es una pérdida cada vez mayor de recursos para mantener el sistema.
____________________________________________
War, Crisis and Pain. Welcome to the twenty century
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Khasthrom escribió:¿Por qué no está EEUU en la lista?
Re: Las 5 mayores amenazas para el futuro de la humanidad, según los expertos de Oxford
Y los zombies?? nadie se acuerda ya de los zombies???
Contenido patrocinado

» Tres académicos de Oxford piden ser congelados al morir para vivir en el futuro
» Tus huellas dactilares no son únicas, según expertos forenses
» La mayor amenaza para la humanidad
» Un pequeño paso para el palo de selfie, un retroceso gigante para la humanidad.
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
» Tus huellas dactilares no son únicas, según expertos forenses
» La mayor amenaza para la humanidad
» Un pequeño paso para el palo de selfie, un retroceso gigante para la humanidad.
» El futuro de la Inteligencia Artificial según Kurzweil, gurú de la IA y director de ingeniería Google
Página 1 de 1.
Permisos de este foro:
No puedes responder a temas en este foro.