Profesor Stephen Hawking po raz kolejny powtórzył swoje twierdzenie, że ludzkość nieuchronnie chyli się ku upadkowi i że czas ludzi na ziemi jest policzony, po tym gdy przekroczyliśmy "punkt bez powrotu".
Fizyk twierdzi, że rozwój AI (sztucznej inteligencji)jest tak duży, iż to maszyny już w niedalekiej przyszłości będą dominowały nad ludźmi.
W wywiadzie dla magazynu "Wired", Hawking powiedział: "Obawiam się, że sztuczna inteligencja może całkowicie zastąpić człowieka, jeśli ludzie projektują wirusy komputerowe, ktoś zaprojektuje sztuczną inteligencję, która poprawia się i replikuje. "To będzie nowa forma życia, która przewyższy ludzi".
75-letni uczony, dodał również że jeśli ludzkość chce przetrwać jako gatunek, musi opuścić Ziemię.
Powiedział, że nowy program kosmiczny powinien być najwyższym priorytetem ludzkości - mając na myśli "ewentualną kolonizację odpowiednich planet dla potrzeb zamieszkania ich przez ludzi". "To pozwoli nam opuścić Ziemię i skolonizować inną planetę, aby zapewnić sobie przetrwanie, w przeciwnym razie wystąpią "poważne konsekwencje".
Profesor Hawking dodał: "Wierzę, że osiągnęliśmy punkt bez powrotu, nasza ziemia staje się dla nas zbyt mała, globalna populacja rośnie w alarmującym tempie, a my jesteśmy w niebezpieczeństwie samozniszczenia".
W zeszłym roku, na otwarciu centrum sztucznej inteligencji Uniwersytetu Cambridge, profesor Hawking powiedział, że sztuczna inteligencja może być najlepszym lub najgorszym wynalazkiem, jakiego kiedykolwiek dokonała ludzkość - i dodał: "Potencjalne korzyści płynące z tworzenia inteligencji są ogromne, nie możemy przewidzieć, co możemy osiągnąć, kiedy nasze własne umysły są wzmacniane przez sztuczną inteligencję.
"Być może dzięki narzędziom tej nowej rewolucji technologicznej będziemy w stanie usunąć niektóre szkody wyrządzone światu naturalnemu przez ostatnie lata industrializacji.
"Na pewno będziemy dążyć do ostatecznej likwidacji chorób i ubóstwa, każdy aspekt naszego życia ulegnie transformacji. Krótko mówiąc, sukces w tworzeniu sztucznej inteligencji może być największym wydarzeniem w historii naszej cywilizacji. "Ale może to być również ostatnim, o ile nie nauczymy się, jak unikać ryzyka, a oprócz korzyści, Sztuczna Inteligencja przyniesie również niebezpieczeństwa, takie jak potężna autonomiczna broń lub nowe sposoby, by nieliczni uciskali wielu".
(af)