(NaturalNews)
Um dos principais objetivos da ciência é promover o conhecimento e a
compreensão para melhorar a condição humana, mas muitas vezes esse campo nobre
de estudo se transforma em uma missão com fins lucrativos para o poder, em
detrimento da humanidade.
De fato, a
ciência da tecnologia é, talvez, a pior culpada. Uma equipe de matemáticos,
filósofos e cientistas da Future of
Humanity Institute (Instituto do Futuro da Humanidade) da Universidade de
Oxford está nos alertando.
A equipe, em
um estudo intitulado Existential
Risk Prevention as Global Priority (Prevenção de Risco Existencial é Prioridade
Global) diz que o excesso de confiança da humanidade em tecnologia poderia
levar ao nosso fim, e que os seres humanos estão enfrentando um risco para a
nossa própria existência no momento atual da tecnologia, que tende a só piorar.
Além do
mais, a equipe diz que o desaparecimento da humanidade não está muito longe, que
poderia vir tão logo no próximo século.
"Ameaças que não temos o histórico de
sobreviver...”
"Há uma
grande corrida entre poderes tecnológicos da humanidade e nossa sabedoria
para usar bem esses poderes", diz o diretor do instituto, Nick Bostrom.
"Estou preocupado que o primeiro que ir muito longe."
Desde a nossa existência neste planeta, houve aqueles que previram o fim do mundo como nós o conhecemos, a última "moda" neste campo foi a polêmica em torno da refutada profecia maia de 2012. Ainda assim, não podemos nos esquecer que em algum momento de nosso futuro, a vida na Terra deixará de existir.
Desde a nossa existência neste planeta, houve aqueles que previram o fim do mundo como nós o conhecemos, a última "moda" neste campo foi a polêmica em torno da refutada profecia maia de 2012. Ainda assim, não podemos nos esquecer que em algum momento de nosso futuro, a vida na Terra deixará de existir.
Do papel de Bostrom:
A humanidade tem sobrevivido ao que
poderíamos chamar de riscos existenciais naturais por centenas de milhares de
anos, portanto, é pouco provável que algum deles ira acabar conosco dentro dos
próximos cem anos. Esta conclusão é reforçada quando analisamos os riscos
específicos da natureza, tais como impactos de asteroides, erupções supervulcânicas,
terremotos, explosões de raios gama e assim por diante: distribuições de
impactos empíricos e modelos científicos sugerem que a probabilidade de
extinção por causa desses tipos de risco é extremamente pequena em uma escala
de tempo de um século ou mais.
Em contraste, a nossa espécie está introduzindo
tipos de risco existencial inteiramente novos - ameaças que não temos histórico de
sobreviver. Nossa longevidade como uma espécie, portanto, não oferece fortes
razões anteriores para otimismo confiante. Considerações existenciais
específicas - cenários de risco confirmam a suspeita de que a grande maioria do
risco existencial no futuro previsível consiste de riscos existenciais
antropogênicos - ou seja, aqueles decorrentes da atividade humana.
Continuando,
Bostrom prevê que os futuros avanços tecnológicos "podem expandir
radicalmente a nossa capacidade de manipular o mundo externo ou a nossa própria
biologia”.
Bostrom
diz que as ameaças conhecidas, como um asteroide colidindo com o planeta,
erupções supervulcânicas e terremotos
provavelmente não irão ameaçar a humanidade num futuro próximo. Até
mesmo uma explosão nuclear não vai destruir completamente a vida, nesse caso,
diz ele, muita gente iria sobreviver para reconstruir.
Pelo
contrário, é o desconhecido que vai cair como uma maldição sobre a existência
da humanidade.
"À
medida que nossos poderes se expandem, a escala de suas possíveis consequências
- intencionais e não intencionais, positivo e negativo, crescem também"
A ciência tem a obrigação de servir a humanidade
Nem todas as
notícias são ruins, diz Bostrom.
"A
Terra continuará habitável por pelo menos mais mil milhões de anos. Nossa civilização
começou apenas alguns milhares de anos atrás. Se não destruirmos a humanidade,
estes poucos milhares de anos pode ser apenas uma pequena fração de toda a
história da humanidade civilizada", escreve ele.
Mike Adams, diz
que o ônus para proteger a humanidade cai sobre aqueles que estão a criar a
tecnologia.
0 comentários :
Postar um comentário