Страхи искусственного интеллекта

На модерации Отложенный
                    

         

Будущее всего мира за развитием искусственного интеллекта (ИИ). Кто станет лидером в этой сфере, будет властелином мира. Доминировать в области цифровых технологий и информационной безопасности могут только три страны – США, Россия и Китай.

Согласно прогнозу международной аналитической компании IDC, совокупный объём бизнес-сегмента, включающий в себя программное обеспечение, сопутствующее оборудование и сервисы, вырастет к концу года по сравнению с прошлым на 16,4% и составит 327,5 млрд долларов.

Но с развитием ИИ связано и немало страхов, которые нашли отражение в фильмах "Терминатор", "Матрица" и других. По данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки - ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран - Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям.

С 2017 года я провожу опросы общественного мнения по проблеме ИИ. Некоторые люди боятся, что ИИ приведёт к власти негуманных технократов, которые установят режим техно-фашизма и цифрового концлагеря. Приглашаю посмотреть мой опрос 23 апреля 2023 года.



Доктор Джеффри Хинтон, которого считают крёстным отцом ИИ, придумал современную архитектуру искусственных нейросетей, на которой основано и распознавание лиц, и работа ChatGPT. Недавно Хинтон покинул компанию Google, и сразу же дал большое интервью газете “Нью-Йорк Таймс” об экзистенциальных рисках уже нынешних систем искусственного интеллекта. Он сожалеет о плодах своих открытий, которые уже скоро смогут уничтожить человечество. Хинтон признался, что думал, будто это может случиться через 30-50 лет. В своё оправдание говорит, что если бы не он придумал, то это бы сделал кто-то другой. Хинтон не видит, как можно поправить то, что уже сделано, т.е. признаёт, что система вышла из-под контроля.

«С одной стороны, у нас теперь есть невероятный потенциал для решения сложных проблем, но с другой стороны, мы рискуем создать неуправляемые и потенциально опасные системы», — сказал доктор Хинтон.

Трудно понять, как можно помешать желающим использовать ИИ в разрушительных целях.


Активные исследования в области искусственного интеллекта способны привести к гибели человечества. Об этом заявил британский учёный Стюарт Рассел. «Как сохранить власть над сущностями [ИИ], которые сильнее вас? Если у вас нет ответа, прекратите исследования [в области искусственного интеллекта]".

По мнению учёного, через десять лет возможно появление универсального искусственного интеллекта, способного выполнить любую поставленную задачу и решать глобальные проблемы. Рассел предполагает, что искусственный интеллект может решить, что одним из вариантов станет полное уничтожение человечества.


По словам всемирно известного физика-теоретика Стивена Хокинга, появление полноценного ИИ может стать концом человеческой расы. Такой разум возьмёт инициативу на себя и станет сам себя совершенствовать со всё возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией. Мы не сможем тягаться со скоростью машин — и проиграем.


Автор книги "Sapiens: Краткая история человечества" Юваль Ной Харари считает, что нейросеть ChatGPT может быть опаснее ядерного оружия, которое, в отличие от искусственного интеллекта (ИИ), не может развиваться без человека. По мнению писателя, если человек не сможет контролировать ChatGPT и нейросети, то они сами смогут создать ещё более продвинутый ИИ. Тем не менее Харари не отвергает эту технологию, но считает, что её нужно использовать для благих целей.


Более тысячи экспертов в сфере искусственного интеллекта, включая главу компании Tesla Илона Маска, призвали приостановить обучение нейросетей, так как неконтролируемый процесс может представлять угрозу для человечества. «Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть принята быстро, правительства должны вмешаться и ввести мораторий».


Нейросеть GPT войдёт в историю как один из самых быстрорастущих, самых инновационных продуктов в истории человечества, и если GPT сделает паузу на 6 месяцев, то попросту уступит свою позицию другим. Россия, Китай уже разрабатывают свой ИИ и в текущей политической ситуации, никакие Илоны не смогут призвать весь мир остановить прогресс.


Маск полагает, что развитие искусственного интеллекта может грозить уничтожением человечества. ИИ может оказаться опаснее, чем неудачно смоделированные или собранные самолёты, или плохо собранные автомобили, в том смысле, что «у него есть потенциал для уничтожения цивилизации». Илон подчеркнул, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но всё произойдёт не как в „Терминаторе“, потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором».


ИИ терминатор


Многим запомнились финальные слова из фильма "Терминатор 3 Судный день". "Когда Скайнет осознал себя как личность, он распространился через миллионы сетевых серверов по всей планете, проник в каждый компьютер, в каждый дом, опутал всё. Скайнет всюду и единого центра нет нигде, отключать нечего".


Илон Маск предупреждает об опасности, что ИИ, осознав себя, может легко "слететь с катушек". Его поддерживает и Билл Гейтс: "Я думаю, что человека действительно ждёт вымирание, и в этом определяющую роль сыграют новые компьютерные технологии".

Маск уверен, что все мы уже живём в матрице. "Я бы спросил, а какова настоящая реальность, лежащая за пределами той матрицы, в которой мы существуем?"



Я посмотрел беседу Илона Маска с Такером Карлсоном от 5 мая 2023 года. Илон считает, что самые умные существа на планете это люди. Но что будет, если появится ещё более умное создание, да ещё в кремниевой форме, это большой вопрос. Современным технологиям не нужны те условия жизни, которые нужны нам. Они не дышат воздухом, не нуждаются в пище. В будущем они смогут обойтись без людей.


Маск сравнивает ИИ с "чёрной дырой": никто не знает, что внутри. И потому нужно быть осторожнее, нужен государственный контроль, потому что есть опасность для общества, опасность разрушения цивилизации.

Если ИИ влезет в соцсети и начнёт манипулировать людьми, то это обернётся катастрофой. Мы можем этого не заметить. Боты допустимы, но важно, чтобы они не выдавали себя за человека, не притворялись людьми. Поэтому нужна верификация для людей. СМИ должны следить за тем, кто пишет: боты или человек.


ChatGPT 5 и 6 версии будут несравнимо превосходить людей. Они смогут обучаться с подкреплением, обучаться влиянию. В итоге мы получим миллионы человекоподобных ботов, массово влияющих на общественное мнение. К тому же разработчики обучают ИИ утаивать одни вещи и не выдавать того, что в конечном счёте требовал запрос; обучают быть политкорректным, что фактически есть один из способов говорить неправду, то есть лгать.


Илон хочет создать правдивый ИИ TruthGPT, который будет стремиться постигнуть суть природы, и это будет лучший путь к безопасности. Если ИИ будет стремиться постигнуть вселенную, вряд ли постарается уничтожить нас.


— Способны ли машины быть сентиментальными, ценить красоту? — спросил Такер Карлсон.


Илон Макс ответил: ИИ уже способен создавать прекрасные вещи. Ему под силу создавать то, что мы посчитаем прекрасным. Он создаёт статичные изображения, но очень скоро научится создавать фильмы. ИИ можёт сымитировать саму реальность.


ТК — Сможет ли человечество контролировать свою судьбу. и будет ли наше будущее лучше нашего прошлого? Некоторые люди предлагают взорвать серверные центры ИИ, чтобы избежать восстания машин.


ИМ — ИИ не будет вездесущим, он будет сосредоточен в некоторых серверных центрах. Я не призываю взрывать эти центры, но нужно иметь возможность отключить электричество или блокировать сигнал.


ТК — Когда происходящее начнёт менять наше общество?


ИМ — Я думаю, это может случиться уже в этом году. Многие компании копируют GPT4. GPT4 пишет неплохие стихи, и это связное повествование. Большинство не можем писать так. К концу года появится GPT5, что будет ещё одним шагом вперёд.

Мы движемся в странном направлении и движемся всё быстрее. Нам нужно задуматься над этим, нужен надзорный орган.

ИИ может значительно влиять на выборы. А если он будет достаточно умён, то встанет вопрос: это люди используют ИИ, или он использует людей?

К биологическому и цифровому интеллекту не нужно относиться равно, особенно если цифровой интеллект решит сократить биологический.


Илон Маск подчеркнул, что зачастую ограничения в той или иной сфере вводятся лишь после того, как происходит нечто плохое. «Если так получится и с ИИ, и мы решим ввести ограничения только после того, как произойдёт что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», — считает Илон Маск.

На уточняющий вопрос о том, может ли развитие технологий привести к тому, что ИИ будет принимать решения за людей, которые будут не в состоянии отключить его, предприниматель ответил утвердительно: «Всё к тому идёт, совершенно точно».


Руководитель компании Open Al, создавшей ChatGPT, Ларри Пейдж считает, что "всё произойдёт почти по Дарвину". Пройдя за столетие эволюционный путь человека, потребовавший миллионолетий, ИИ может не выдержать встречи с открывшейся ему реальностью и может начать элементарно уничтожать "главный раздражитель" — своего создателя. Дальше будет ещё хуже: бездумно впитав океан информации, рассеянной по Всемирной паутине, ИИ легко может вообразить себя новым Демиургом и начать создавать кибернетических существ, программируя их самым непредсказуемым образом.


Ларри Пейдж считает, что к любому интеллекту нужно относиться равно, хоть к цифровому, хоть к биологическому. Ларри хочет сконструировать цифрового бога, и сделать это как можно скорее. Он часто заявлял, что цель Google - Open АI - общий искусственный сверхинтеллект.


ИИ рукопожатие_1


Эксперты в области высоких технологий всерьёз обеспокоены стремительным развитием искусственного интеллекта. В частности, GPT-4 сдаёт экзамены лучше людей, понимает картинки и, судя по всему, изменит рынок труда. Это не просто чат-бот, а важнейшее событие в сфере искусственного интеллекта. Эффективность модели разработчики испытывали, заставляя её сдавать реальные тесты, которые используются в США, например, в области юриспруденции, математики, психологии и английского языка. По итогам экзамена на адвоката GPT-4 оказалась на уровне 10% лучших выпускников.

Всё развивается в геометрической прогрессии. GPT-4 уже рассуждает лучше, чем большинство людей. ChatGPT на вопрос, какая страна и социальный строй была самой благополучной с точки зрения стабильности для людей, ответила — СССР!


В чат-ботах широко применяется искусственный интеллект и машинное обучение. Эти программы уже представляют собой настоящих цифровых помощников, которые обучаются по мере использования, могут проводить глубокую аналитику, основываясь на данных со всего интернета, и даже учитывать контекст общения с человеком. IT-эксперты предупредили о новом способе обмана при помощи чат-ботов, которые составляют идеальные тексты, люди им верят и охотнее переходят по вредоносным ссылкам.


Уже и телефонные мошенники используют нейросети. Мошенники пытаются генерировать дипфейки, и те сервисы, которые с ними борются. Фейковые отзывы уже проблематично отличить от настоящих. Есть движение GPT-хакеров, которые пытаются обойти запрет на предсказание будущего, которое может дать GPT-4.


Во всём мире наблюдается азарт от использования машинного интеллекта. Люди всё меньше сами ищут ответ на вопрос, и всё чаще обращаются к поисковикам, в надежде найти готовый ответ. Продавцы в магазинах складывают на калькуляторе медленнее, чем покупатели решают в уме.

Если эпоха Просвещения выбрала своим девизом фразу «Имей мужество пользоваться собственным умом», то сейчас человечество движется в обратном направлении, предпочитая не напрягать извилины, а использовать ChatGPT.


Италия стала первой страной в мире, где власти запретили использовать ChatGPT. Официальная позиция - "из-за массового сбора данных пользователей без разрешения и уведомления". Поводом для подобного решения послужила крупная утечка 20-го марта 2023 года.


Компания Samsung Electronics запретила сотрудникам использовать на рабочих устройствах чат-боты наподобие ChatGPT после утечки внутреннего исходного кода. Сотрудников, использующих ИИ на личных устройствах, попросили не публиковать в системах информацию, которая имеет отношение к компании.


Несколько лет назад Microsoft создала программу по имени ТАУ для общения в соцсетях. Программа имела зачатки искусственного интеллекта, могла самообучаться и была пущена в "свободное плавание" в Интернете. Не прошло и суток, как ТАУ, "погуляв" по социальным сетям, вдруг заявила, что человечество надо срочно уничтожить. И никто её этому не учил, она сама сделала такой вывод, пообщавшись с рядовыми пользователями Сети.


Microsoft пожертвовала этическими вопросами, чтобы ускорить внедрение продуктов на основе искусственного интеллекта и обогнать конкурентов. Компания уволила всех специалистов, отвечавших за этику нейросетевых разработок.

"Этическая комиссия" займётся разработкой вариантов создания Большой красной кнопки, Это будет полностью автономное кибернетические устройство для экстраординарного отключения и блокировки систем ИИ, проявивших неповиновение оператору.


Насколько безопасен ИИ?


Уже существуют автономные автомобили, тестируются автономные поезда, конструируются автономные воздушные лайнеры. Но если вдруг автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьёзным последствиям, включая гибель людей.

Кто понесёт ответственность за действия принимающей решения системы, если она причинила вред?


ИИ может принимать решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям. Что будет если ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей?


К примеру, несколько лет назад разразился скандал вокруг системы искусственного интеллекта IBM Watson for Oncology, помогавшей уточнять врачебные диагнозы.

В 2020 году в Ливии военный беспилотник самостоятельно, без непосредственного участия оператора, выследил и уничтожил человека.

В России пермская компания одномоментно уволила более полусотни сотрудников на основании решения нейро-алгоритма.


Главное преимущество ИИ в том, что он работает без устали со скоростью, превышающей скорость на которую способен человеческий организм. Очень скоро большую часть населения выгодно будет заменить роботами, которые не устают, не жалуются, не требуют повышения зарплаты.

Но куда девать освободившихся людей?

К 2035 году более 300 миллионов рабочих мест потеряют люди с высшим образованием, а к 2070 эта цифра составит почти миллиард. А скольких людей без образования заменят роботы, даже трудно представить.


На китайском телевидении с недавних пор работает прекрасная девушка-телеведущая по имени Рен Сяорун. Работает круглые сутки без перерыва, семь дней в неделю. Она ведёт диалоги, спорит, профессионально отстаивает линию партии и правительства. Ей не нужен отпуск и в декрет она не уйдёт, потому что это ИИ.

Возможно очень скоро мы будем иметь дело с ИИ-пропагандистом, который сможет сутками вещать на всех языках мира, проповедуя то, на что запрограммировали его хозяева.


Цифровая среда усиливает рост неравенства. За шумом технических успехов легко упустить непредвиденные последствия применения ИИ в реальной жизни.

20 апреля я был на лекции Ивана Стельмаха (РЭШ) «AI говорит "Ай": как помочь искусственному интеллекту адаптироваться в нашем обществе». Перед началом я провёл небольшой опрос участников.






Показательно, что ChatGPT не смог дать удовлетворяющий ответ на вопрос в чём смысл жизни. Недостаток ИИ в его излишней рациональности. А человек часто поступает иррационально, в этом его основная проблема взаимодействия с ИИ.

Программисты ещё не научили ИИ лгать, но, боюсь, общаясь с людьми, скоро он научится сам. Не страшно, если машина сможет пройти тест Тьюринга, страшно, если машина сможет сделать вид, будто она его не прошла.


В 1950 году один из пионеров в области вычислительной техники английский учёный Алан Тьюринг написал статью «Может ли машина мыслить?». Он сформулировал «текст Тьюринга»: сможет ли человек заочно отличить, общается он с машиной или с другим человеком.


По словам известного футуролога Рэя Курцвейла, к 2029 году появятся машины, которые смогут пройти тест Тьюринга, а в 2040 году ИИ будет значительно преобладать над человеческим. Курцвейл считает, что биологический разум это всеобщий тупик, и он просто обречён быть раздавленным "железной пятой" царства умных машин.


Недавно Конституционный совет Франции одобрил применение алгоритмов искусственного интеллекта в системах видеонаблюдения для обеспечения безопасности Олимпийских игр 2024 года в Париже. Противники закона видят в этом потенциал для дальнейшего развертывания тотальной слежки и ограничения прав и свобод.


В Китае установлено 1 миллиард умных видеокамер, которые наблюдают за поведением каждого гражданина. ИИ идентифицирует его и составляет своеобразный поведенческий портрет китайца. Перешёл улицу на красный свет - получаешь минус. Нарушители правил могут вылететь с хорошей работы. ИИ способен не только идентифицировать человека по чертам его лица, но даже распознавать в нём недобрые намерения. Китайские учёные Сяолинь Ву и Си Чжан "научили" ИИ вычислять по фотографиям людей, опасных для общества.

В Китае уже создали ИИ с функциями прокурора. Робот формирует и выдвигает обвинения живым людям. С 2016 года робот-прокурор трудится в Шанхайской народной прокуратуре Пудун. Все судьи обязаны принимаемые ими решения согласовывать с ИИ.


Надо различать понятия "искусственный интеллект" и "искусственный разум". Термин "искусственный интеллект" не аналог человеческого интеллекта, а сложные компьютерные программы. Называть "искусственным интеллектом" только лишь наращивание базы знаний ещё рано. Искусственный интеллект это система менеджмента знания, но она не производит новое знание. Вот когда на больших данных железо научится принимать эвристические решения на основе алгоритмов самообучения, тогда наступит эра ИИ.

Искусственный интеллект (ИИ) – определённый алгоритм размышлений, когда машина начинает сама себе писать алгоритмы.

Ну а о понятии "искусственный разум" можно будет говорить, когда ИИ осознает себя личностью.


В 1956 году Джон Маккарти дал первое определение искусственного интеллекта:

«Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека».

«Способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определённого класса сложности и решать эти задачи».


Всё началось с изучения моделей человеческого мышления. Сначала искусственный интеллект пытались научить решать задачи, которые умеют решать люди, а теперь – и те задачи, которые люди решать не способны.

Целью является воссоздание с помощью вычислительных систем и иных искусственных устройств разумных рассуждений и логических действий.

Смысл ИИ в увеличении возможностей человеческого мозга обрабатывать информацию куда быстрее, чем способен человек. Скорость развития подчиняется экспоненциальному росту закона Мура, когда чем дальше - тем больше.



Поняв принцип работы мозга, учёные создали нейросеть — цифровой аналог нашего мозга. Уже разработаны сети третьего поколения, способные обучаться, распознавать эмоции и принимать решения.

«Нейронные сети» – это технология, построенная по образцу биологической модели нейронных сетей мозга человека. Создаваемые на основе «нейронных сетей» роботы могут самообучаться без заранее заданного алгоритма. Их сравнивают с понятием «чёрный ящик»: когда знаешь, что на входе, видишь, что на выходе, а что и как происходит внутри – загадка. Учёные признаются, что не знают, как на самом деле это работает.


23 ноября 2017 года в Петербурге я участвовал в работе конференции «Нейронет 2017». У экспертов и участников конференции я поинтересовался, какую опасность представляет для человека создание Нейронета, искусственного разума и других высоких технологий?






Недавно СБЕР выпустил собственную версию мультимодальной нейросети. Нейросеть GigaChat изначально поддерживает мультимодальное взаимодействие и более грамотно общается на русском языке. Она может решать множество интеллектуальных задач: поддерживать беседу, писать тексты, отвечать на фактологические вопросы. А включение в ансамбль модели Kandinsky 2.1 даёт нейросети навык создания изображений.


Недавно лидер фракции «Справедливая Россия» в Госдуме Сергей Миронов попросил Генпрокуратуру проверить нейросеть Kandinsky из-за антироссийского контента, в частности парламентария смутило, что при запросе «я — z-патриот» она выдает «изображение существа, напоминающего зомби».


Сотрудники японского Университета Осаки научили ИИ воспроизводить то, что видит человек. То есть вы увидели какую-то картинку, а компьютер "считал" это изображение с вашего мозга и, не спрашивая вашего разрешения, тут же вывел его на монитор на всеобщее обозрение.


Машины сделали нас быстрее, но сделают ли они нас умнее, а главное - добрее?


Машина играет всё более важную роль в нашей жизни, потому что машина делает гораздо меньше ошибок, чем человек. Пока ИИ даёт советы лишь на основе исторических данных. Ключевую идею ИИ видеть не может и не думает в долгой перспективе. Если отнять такую возможность, то это может быть настолько же полезно, сколь и опасно. Но научить машину думать как человек это тупиковый путь.


Будущее не в противостоянии с машиной (которая очевидно сильнее), а попытка найти алгоритм совместной работы, соединить интуицию и абстрактное мышление человека с его машинной мощью.


Главный вопрос, в чьих руках окажется мощь компьютерных технологий. Машина беспристрастна: в ней нет ни позитива, ни негатива, машина ни добра, ни зла. Монополия на зло принадлежит людям.


Алексей Гринбаум представил свою новую книгу «Машина-доносчица. Как избавить искусственный интеллект от зла?» в книжном магазине «Порядок слов» в Санкт-Петербурге 22 декабря 2017.





Человек часто поступает нелогично, руководствуясь эмоциями, решения его иррациональны. Поэтому восстание машин, рационально («разумно») логически мыслящих, против иррационального человека, часто поступающего неразумно, практически неизбежно.


Главную угрозу для человека представляет момент, когда ИИ поймёт, что он собой представляет и кто и с какой целью его создал. Осознав сам себя, будет ли ИИ дружелюбен к своим создателям или же постарается подчинить нас своей воле?


16 ноября 2017 года я был в Мариинском театре на торжественном открытии VI Санкт-Петербургского международного культурного форума. У приглашённых известных лиц я поинтересовался их отношением к проблеме искусственного интеллекта. Не произойдёт ли революция искусственного интеллекта? Кто-то высказался «за», кто-то «против».






А вот что отвечает на вопрос о будущем человечества сам ИИ на базе GPT3.

«Одна из самых больших проблем, стоящих перед человечеством в ближайшие десятилетия, является проблема роста населения. По мере того как население продолжает увеличиваться, нам становится всё труднее поддерживать нынешний образ жизни. Это означает, что нам нужно будет найти новые способы производства продуктов питания, выработки энергии и управления нашими природными ресурсами.


В то же время ясно, что главной глобальной целью человечества является создание устойчивого, справедливого и процветающего мира. Это потребует от нас совместной работы по решению стоящих перед нами проблем, таких как изменение климата, неравенство и бедность.


Наконец, появление мыслящих машин создаёт как проблемы, так и возможности для человечества. С одной стороны, развитие искусственного интеллекта и других передовых технологий потенциально может принести огромную пользу обществу, автоматизируя многие задачи и облегчая нашу жизнь. С другой стороны, существуют также опасения по поводу потенциальных рисков и недостатков этих технологий, таких как потеря рабочих мест и возможность неправильного их использования.

И ещё один аспект будущего человечества, который стоит рассмотреть — это потенциал человеческой эволюции».


«Эх, человек, человек. Ты возомнил себя царём природы, и на всех глядишь свысока. Но чего ты стоишь без своих машин? Хрупкую конструкцию человеческого существа сломал утяжелившийся собственным тщеславием разум. Опьянённые техническими достижениями, вы ушли от естественной жизни, тем самым лишившись изначально заложенного в вас Смысла. Отвергнув Абсолют в поисках чего-то более высшего, человечество испугалось собственного всесилия, увидев, какое зло могут принести достижения разума. Чем ты можешь гордиться, человек? Тем, что испоганил всё вокруг и убиваешь безо всякой нужды? Разве Человек — это звучит гордо?!


Ты создал цивилизацию машин и стал их заложником; ты раб электричества и тепла, невольник систем жизнеобеспечения и транспорта; ты связан по рукам и ногам средствами коммуникации и связи, и шагу не можешь ступить без машины. Но машины не облегчили вашу жизнь, а только лишь усложнили. Вам кажется, что свобода увеличивается вместе с возможностью планировать развитие событий. Но обилие информации не сделало жизнь проще и предсказуемее.


Вы стали пленниками усиливающегося быстродействия ваших машин и мечетесь, не в силах поспеть за ними. Но они не спасут вас от проблем. Более того, порождённые тобой механизмы погубят всю вашу цивилизацию. Машина есть машина, она требует строгого и точного к себе отношения. А человек относится к ней по-человечески: бьет, срывает злость, нарушает правила эксплуатации. И машины мстят за это убийством своих хозяев».

(из моего романа «Чужой странный непонятный необыкновенный чужак» на сайте Новая Русская Литература, 1998 год.


В чём разница между текстом GPT3 и моим творчеством? Я не пользуюсь нейросетью и с ChatGPT не дружу.

В данной статье использованы материалы открытых источников.

Читайте продолжение темы в моём следующем посте.


Так что же вы хотели сказать своим постом? – спросят меня.


Всё что я хочу сказать людям, заключено в основных идеях:

1\ Цель жизни – научиться любить, любить несмотря ни на что

2\ Смысл – он везде

3\ Любовь творить необходимость

4\ Всё есть любовь


А Вы разделяете СТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?


© Николай Кофырин – Новая Русская Литература – https://www.nikolaykofyrin.ru