User:Juramaga13/sandbox



Un riesgo catastrófico global es un hipotético evento futuro con el potencial de perjudicar seriamente el bienestar de la especie humana en una escala global. Algunos de estos eventos podrían destruir o paralizar la civilización moderna. Un evento que pueda conllevar a la extinción humana también es conocido como un riesgo existencial.

Algunos ejemplos de riesgos catastróficos globales en potencia son la inteligencia artificial hostil, las armas de nanotecnologia, el cambio climático, la guerra nuclear, y las pandemias.

Investigar directamente la extinción humana reviste gran dificultad, ya que la Humanidad nunca ha sido destruida en el pasado. Mientras que esto no significa que dicha extinción no pueda suceder en el futuro, sí implica un gran inconveniente para quienes intentan modelarla, en parte debido al llamado sesgo de supervivencia.

Riesgo catastrófico global vs. riesgo existencial
El filósofo Nick Bostrom clasifica los riesgos de acuerdo a su alcance e intensidad. Considera que un riesgo catastrófico global es aquel que es al menos “global” en su alcance y “soportable” en su intensidad. Aquellos que son al menos “trans-generacionales” (afectando a todas las generaciones futuras) en su alcance y “terminales” en su intensidad se clasifican como riesgos existenciales. Mientras que un riesgo catastrófico local puede aniquilar a la gran mayoría de la vida en la Tierra, la Humanidad podría, potencialmente, recuperarse. Por otro lado, un riesgo existencial es aquel que destruye por completo a la Humanidad, o que le impide cualquier oportunidad de recuperación. Bostron considera que los riesgos existenciales son mucho más significativos.

De manera similar, en su libro "Catastrophe: Risk and Response", Richard Posner señala y agrupa eventos que conllevan a un “completo desmoronamiento o ruina de la civilización” en una escala global antes que en escalas “locales o regionales”. Posner señala dichos eventos como dignos de atención especial en términos de costo-beneficio porque podrían comprometer de manera directa o indirecta la supervivencia de la raza humana como un todo. Algunos de los eventos sugeridos por Posner son impactos de meteoros, calentamiento global descontrolado, grey goo, bioterrorismo, y accidentes en aceleradores de partículas.

Otras clasificaciones
Bostron identifica cuatro tipos de riesgo existencial. Las "explosiones" son catástrofes repentinas, que pueden ser accidentales o deliberadas. Considera que las fuentes más probable de explosiones son el uso malintencionado de nanotecnología, la guerra nuclear, y la posibilidad de que el universo sea una simulación de computador que será terminada. Los "crujidos" son escenarios en los cuales la humanidad sobrevive, pero la civilización es destruida de manera irreversible. Las causas más probables para estos eventos, arguye Bostrom, son el agotamiento de los recursos naturales, un gobierno global estable que no permita el progreso tecnológico, o efectos Disgenesia que reduzcan la inteligencia promedio. Los "chillidos" son futuros indeseables. Por ejemplo, si una mente en particular aumenta sus poderes cognitivos fusionándose con un computador, podría dominar el futuro de la civilización humana. Bostrom cree que éste último escenario, seguido por una superinteligencia fallida y un régimen totalitario represivo, es el más probable. Los "gemidos" se refieren a la decadencia gradual o de nuestros valores actuales. Bostrom intuye que la causa más probable para un gemido sería un proceso evolutivo que cambie nuestras preferencias morales, seguido de una invasión extraterrestre.

Probabilidad
Para algunos riesgos globales, como el de un impacto de asteroide, cuyo chance de causar la extinción de la Humanidad en los próximos 100 años es de uno en un millón, ha sido posible calcular sus probabilidades con una precisión considerable (aunque algunos académicos consideran que la tasa real de grandes impactos podría ser mucho mayor que la calculada originalmente). De igual manera, se ha estimado que la frecuencia de erupciones volcánicas con una magnitud suficiente para causar un cambio climático catastrófico, similares al de la Erupción de Toba, que pudo haber dejado a la Humanidad al borde de la extinción, es de aproximadamente una cada 50 mil años.

El peligro relativo que plantean otras amenazas es mucho más difícil de calcular. En 2008, un pequeño grupo de expertos en diferentes riesgos globales catastróficos, reunidos en una conferencia en la Universidad de Oxford, sugirió que existe una probabilidad del 19% para la extinción humana en los próximos 100 años. No obstante, el reporte de la conferencia advierte que el método usado par estimar este número se basa en una encuesta informal en el que no se tuvieron en cuenta las no-respuestas.