Выпускник написал диплом за сутки при помощи нейросети ChatGPT и успешно защитил его
Весь путь от замысла доверить диплом ИИ до его успешной защиты подробно описан в Twitter. Путь был тернист: машина периодически выдавала непонимание запросов, отсвечивала собственными ограничениями и рамками, а в процессе генерации текста вовсю сорила бессмысленными предложениями.
Научный руководитель, тем не менее, даже не заметила, что присылаемый ей текст порожден ИИ. Откровенно неадекватные повороты мысли она по привычке списывала на слабость мышления типичного студента, и лишь указывала на ошибки, которые нужно разрешить.
В итоге удовлетворены оказались все: антиплагиат вывалил достойнейший результат в 82% оригинальности текста, научрук со множеством оговорок утвердила работу и отправила на защиту — скрины выше. Больше всех порадовался, конечно, сам студент, который написал работу, занимающую несколько месяцев, а то и весь академический год, на пару десятков часов.
Поле для экспериментов ChatGPT между тем выдал самое благодатное. Так на последнем скриншоте друзья выпускника постарались определить, где же их приятель писал сам, а где доверил текст машине. Ответ лежал на поверхности — парень даже не притрагивался к обозначенному участку диплома.
Американский журналист таким образом создал целую коммерческую статью, к которой оказалось почти невозможно подкопаться.
UPD: Однако позже на него пожаловались, отметив в Twitter, в итоге руководство РГГУ начало проверку.









Комментарии
Комментарий удален модератором
Мое мнение вполне уважительное. Персонаж явно мог написать диплом самостоятельно. Но ему было интереснее не удовлетворить систему, а создать свою, что он и сделал. Удивительно, что комбинация простейших действий оказалась настолько эффективной.
Хотя есть и второй вариант - это не персонаж сильно умный, это система оценки знаний сильно глупая.
Что касается "лечить людей" - это как раз то, где ИИ особо эффективен. То есть не по всему спектру болезней, а в тех случаях, когда заболевание трудно поддается диагностике - много противоречивых данных. ИИ в таких случаях гораздо лучше человека ведет многофакторный анализ и взвешивает варианты. Это уже доказано, и не раз.
если человек отдает диагностику ии, то вскоре он забудет какие симптомы какому заболеванию присущи и на что могут указывать. точка
Прошла и довольно давно. Оказалось, достаточно чтобы ИИ вел себя как дурак. То есть постоянно переспрашивал, "не понимал" простейшего, отвечал невпопад. Умного человека он не заменит, дурака запросто.
Что касается применения в медицине, тут вы правы.
Комментарий удален модератором
и обратить внимание на то,
что этот дипломник великолепно сформулировал вопросы для ИИ.
У таких самонадеянных, наглых тварей, такое понятие, что ИИ всё делает сам,
но дурак может использовать ИИ лишь по дурацки, и с дурацкими результатами.
А этот дипломник показал, что он весьма неглуп, достаточно посмотреть список вопросов,который он задавал ИИ.
Комментарий удален модератором
А что касается комиссии, то скорее всего она видела, что диплом ниже плинтуса, просто уже стояла задача выпихнуть выпускника любыми путями и не портить статистику по кафедре и факультету. Но не надо их в этом винить - их поставила в такие условия государственная политика в области образования и подушевое финансирование. Опять же, если студент платный или заочник, так и вообще - лишь бы что-то из себя выдавил на троечку.