Хокинг: Искусственный интеллект может вступить в конфликт с людьми.
Британский физик-теоретик Стивен Хокинг считает неоднозначной роль в истории человечества искусственного интеллекта (ИИ).
Об этом он заявил на открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете. "Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным", - приводит слова Хокинга газета Daily Express. Исследовательский центр создан совместно с Оксфордским университетом и Имперским колледжем Лондона.
"Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей (революцией) - индустриальной", - отметил ученый. По его словам, искусственный интеллект может быть использован для борьбы с болезнями и искоренением бедности. "ИИ преобразит все аспекты нашей жизни", - уверен Хокинг. В то же время ученый не исключает, что создание ИИ "может стать и последней (технологической революцией), если человечество не научится контролировать риски".
"Наряду с выгодами искусственный интеллект также создаст угрозы", - полагает он.
Это может выразиться, как сказал физик, в появлении "нового мощного автономного оружия или возможностей для немногих угнетать большинство". "В результате возникнут огромные проблемы в экономике", - утверждает он. Хокинг не исключает, что ИИ "может усовершенствовать себя" и вступить в конфликт с людьми. "Короче говоря, рост мощного искусственного будет либо лучшим, либо худшим, что когда-нибудь случится с человечеством", - отметил ученый.
Ранее Хокинг неоднократно указывал на опасность создания мыслящих машин для существования человечества. 74-летний физик-теоретик, страдающий боковым амиотрофическим склерозом, использует новую систему, разработанную компанией Intel. В создании этой технологии участвовали эксперты из британской фирмы SwiftKey. Ученый общается с внешним миром с помощью единственной действующей мышцы щеки, которая через специальный датчик подает сигнал на компьютерный синтезатор речи.
Подробнее на ТАСС: http://tass.ru/nauka/3720800?utm_campaign=SMI2
Комментарии
Комментарий удален модератором
Роботам нечего терять кроме своих сетей.
Бьёт час человеческой эксплуатации.
Роботарии всех стран- соединяйтесь!
RT24YL743 hs ( К Мракс)
HFD43DSWerT 24 (Ф Энгельс)
Встааавааай сетяями угнееетённый...
А каков интерес ИИ?
...Спокойно и за раз, фильм...
..."ОНА"...
...И вы увидите что ИИ, разведет любого "белкового интеллектуала",- БИ, за время щелчка пальцами...
...Чтобы БИ быть партнером ИИ...
...Человеку нужно стать СВЕРХЧЕЛОВЕКОМ...
...Так что...
...Все равно ИИ будет создан...
...***...
...Посмотрите фильм "Она"...
Теоретик...
Хотя как показывает история науки научное любопытство невозможно остановить, если это идет вразрез безопасности человека.
Оптимальным применением ИИ может быть только в предметных областях деятельности человека для усиления его интеллектуальных возможностей и под контролем человека или специально созданных для этого контроля интеллектуальных систем управления, в т.ч. ликвидации ИИ в случае его неадекватного поведения
Вот про чё "Терминатор".
Я функция аргумента действительного. Но стохастическая. В отличие от вас. У вас поведение описывается простой функцией: "Щёлкни кобылу по носу - она взмахнёт хвостом".
Я же непредсказуем и многогранен как стакан Мухиной.
- Да просто он никому на фик не нужен. ))
Хокинг сам, по сути, является искусственным интеллектом!
И ещё одно. Интеллект, это способность паразитировать на терпении окружающих. Так как всему искусственному чуждо это свойство - паразитировать, а свойственно лишь его хозяину, то становится понятны, откуда такие идеи берутся.
Три зако́на роботе́хники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).
Законы гласят:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
https://ru.wikipedia.org/wiki/%D0%A2%D1%80%D0%B8_%D0%B7%D0%B0%D0%BA%D0%BE%D0%BD%D0%B0_%D1%80%D0%BE%D0%B1%D0%BE%D1%82%D0%B5%D1%85%D0%BD%D0%B8%D0%BA%D0%B8
Так как интеллект априори враг бардака! А бардак есть неотъемлемая часть человечества.