Стивен Хокинг назвал сроки неминуемой техногенной катастрофы
Британский физик-теоретик Стивен Хокинг предупредил человечество о неминуемой техногенной катастрофе, которая произойдет в ближайшую тысячу лет. Об этом, как сообщает BBC News, ученый рассказал в записи радиопередачи, посвященной открытию мягких волос у черных дыр.
Физик выделил три основных угрозы для человечества: ядерную войну, глобальное потепление и созданные генетической инженерией вирусы. По мнению физика, в ближайшее время они не угрожают человеку, но с течением времени что-то «может пойти не так».
«Шансы возникновения катастрофы на планете Земля в этом году достаточно низки, но с течением времени они увеличиваются, так что не возникает сомнений в том, что это случится в ближайшие тысячу или десять тысяч лет», — сказал физик.
Спасение человечества Хокинг видит в переселении с Земли. «Мы не будем основывать автономные колонии в космосе по крайней мере в ближайшие сто лет, так что мы должны быть очень осторожны», — предупредил будущие поколения землян ученый.
Радиопередача с Хокингом, в которой ученый ответит на вопросы слушателей и расскажет об открытии им в соавторстве с Малкольмом Перри и Эндрю Строминжером мягких волос у черных дыр, будет транслироваться 26 января и 2 февраля в эфире радиостанции BBC Radio 4.
Ранее Хокинг сообщал об опасности искусственного интеллекта, развитие которого может угрожать человечеству исчезновением. Хокинг призвал не останавливать прогресс науки, но посоветовал ученым и политикам быть более осторожными.
Источник: http://lenta.ru/news/2016/01/19/hawking/
Катастрофа случиться намного раньше, чем думает Хокингс.
«Метафизика действительности. Основы» ( глава "Метафизика человека") http://simple-old-man.livejournal.com/2014/03/12/
Скорее человечество уничтожит себя и проект перезапустят в новой версии.
Иными словами для такого богатства воображения о катастрофах надо отказаться от веры в человека и ринуться в религиозный экстаз.
Он был настолько "гениальный", что рассчитал дату своей смерти ))))
А когда эта ДАТА прошла он покончил жизнь САМОУБИЙСТВОМ )))))))))))
Так что тщательнЕй надо быть с рассчётами )))))))
Комментарий удален модератором
В искусственном интеллекте есть только одна опасность - это ошибки в программировании сложных систем. А собственного желания и собственных интересов у искусственных систем не появится никогда.
А на самом деле мы наращиваем уровень роскоши и жадность жаждущих себе что-то от неё урвать самим ничего не делая..
И что выйдет?
А то и выйдет... могилка для всех и каждого.
А на самом деле мы наращиваем уровень роскоши и жадность жаждущих себе что-то от неё урвать самим ничего не делая..
И что выйдет?
А то и выйдет... могилка для всех и каждого.