O físico teórico Michio Kaku acredita que ainda há muito a fazer para nos prepararmos para esse evento histórico. A distância e o tempo que nos separam dos alienígenas, caso existam, vai definitivamente jogar a nosso favor.
Por Redação, com Sputniknews – de Nova York, NY-EUA
Em uma recente sessão de perguntas e respostas, o cientista Michio Kaku pormenorizou como poderia ser o primeiro encontro com os extraterrestres. De acordo com os cenários traçados por ele; caso isto suceda em um futuro próximo, a cena bem poderia se assemelhar com o filme de ficção A Chegada.

Enquanto os humanos já inventaram várias teorias sobre alienígenas graças ao trabalho de popularização científica e filmes de Hollywood, hoje pode ser o momento ideal para contatar os extraterrestres.
Porém, o físico teórico Michio Kaku acredita que ainda há muito a fazer para nos prepararmos para esse evento histórico. A distância e o tempo que nos separam das criaturas de outros planetas, caso existam, vai definitivamente jogar a nosso favor.
Pacíficos
De acordo com ele, a distância, de fato, é uma oportunidade de criar tecnologias mais sofisticadas para entender a língua de alienígenas e, o que é ainda mais importante, suas intenções.
“Será que eles são expansionistas e agressivos ou pacíficos?”, se perguntou o especialista, adiantando que a vida alienígena poderia ser encontrada detectando sinais de rádio.
Enquanto tradicionalmente se costuma pensar que os alienígenas representam uma ameaça para a humanidade e trarão caos às nossas vidas, Kaku acredita que os extraterrestres, na maioria, devem ser bem pacíficos, a menos que nós os atrapalhemos.
Além disso, o cientista analisou os assuntos relacionados com os inventos baseados na inteligência artificial e alertou contra robôs que funcionam autonomamente dos humanos.
Inteligência artificial

Durante uma sessão de perguntas e respostas no Reddit; ele reiterou a importância de criar mecanismos para prevenir o chamado síndrome de Frankenstein. O fenômeno, nomeadamente, impede os robôs de se descontrolarem e até matarem humanos.
As mesmas preocupações foram antes pronunciadas por toda uma série de cientistas. Por exemplo, o físico eminente Stephen Hawking falou em uma conferência em Lisboa. Ele disse ao público que a humanidade tem que encontrar uma maneira de controlar os computadores.
Assim, embora o potencial da inteligência artificial ajude a lidar com a pobreza e doenças letais, entre outros assuntos cruciais; ela também está vinculada a alguns riscos sérios.
Também Elon Musk, que chefia a Tesla e a SpaceX; reparou que na corrida por inventos revolucionários a humanidade poderia acidentalmente se derrotar a si mesma; enquanto a inteligência artificial poderia ser “a maior ameaça à existência” da humanidade.