XiaoIce - система искусственного интеллекта от компании Microsoft, способная беседовать

В настоящее время все более широкое распространение получают различные программы-помощники и программы, называемые чатботами, в основе которых лежат принципы искусственного интеллекта. С некоторыми функциями такие программы справляются замечательно, но, в большинстве случаев, они недостаточно "умны" для того, чтобы они могли достаточно долго поддерживать осмысленную беседу с человеком. Однако, не так давно система искусственного интеллекта XiaoIce, разработанная компанией Microsoft, получила целый ряд новых возможностей. Сейчас в этой системе использовано сразу несколько различных принципов восприятия информации, благодаря чему она вполне может одурачить человека, который будет не в состоянии определить то, что он беседует с компьютером, а не другим человеком.
"Полный дуплекс" - это термин из области телекоммуникаций, описывающий процесс обмена информацией, при котором информация способна передаваться в двух направлениях одновременно. Это очень похоже на двух человек, говорящих в один и тот же момент. Все современные чатботы используют только половину от полного дуплекса, так называемый полудуплекс, когда информация передается сначала в одном направлении, от человека к программе, например, а затем в обратном направлении, когда программа дает человеку свой ответ.
Отличительной чертой системы XiaoIce является то, что она способна общаться с человеком в режиме полного дуплекса, что имеет смысл в некоторых ситуациях. Это означает, что система способна быстро и с достаточно высокой вероятностью предсказать то, что скажет его собеседник, продолжит ли он свою мысль или завершит высказывание.
Благодаря этому, система XiaoIce способна дать ответ моментально, а не заставлять человека ждать, пока компьютер "переваривает" сказанное и выполняет поиск по базам данных в поисках подходящего ответа.
Искусственный интеллект XiaoIce делает эту систему на порядки умнее существующих чатботов. Она лишена их главного недостатка - повторения через некоторое время одних и тех же ответов, что делает процесс общения с чатботом малоинтересным и утомительным для человека уже через непродолжительное время общения.
Кроме всего вышесказанного, система XiaoIce уже получила несколько новых способностей, при помощи которых она с большей точностью подражает поведению живого человека. К этим способностям относятся способность к изменению темы разговора, завершения разговора и возврата к первоначальной теме. Сейчас инженеры и программисты компании Microsoft работают над интеграцией всех проверенных новшеств в чатбота Zo, ориентированного на общение с американскими гражданами, и чатбота Rinna, ориентированного на Японию.
В свете всего вышесказанного некоторые из наших читателей будут ожидать, что система-помощник Cortana в ближайшем времени станет более разговорчивой и умной. Спешим вас разочаровать, что все перечисленные выше новые технологии искусственного интеллекта еще не скоро будут готовы к коммерческому использованию. Тем не менее, момент, когда нечто подобное появится на наших смартфонах и компьютерах рано или поздно, но неизбежно настанет.
Комментарии
Комментарий удален модератором
У ИИ нет инстинкта самосохранения и нет инстинкта экспансии. Ему все равно пользуются им или нет.
Нормальный компьютер, решая одну и ту же задачу выдает один и тот же ответ.
Именно поэтому "плохой" ИИ через некоторое время начинает повторяться - смысл вопросов или реплик людей повторяется.
"Хороший" ИИ не повторяется - 2х2 у него бывает и 3, и 4, и 5. Только тогда он становится интересным собеседником.
Умный человек ждет от компьютера точных решений задач, а не пустопорожних разговоров, которыми пытаются испытывать ИИ на интеллектуальность. А для "поговорить за жисть" вокруг полно индивидов, которые с удовольствием выдадут высокоинтеллектуальную беседу за пару кружек пива.
Моментально дают только справку, и то на корректно поставленный вопрос. "Никаким дуплексом" тут не пахнет. Более того, если вы поставите некорректный вопрос, вы получите неверный вывод, но вас это будет устраивать в некоторых случаях....