ChatGPT и «проблема Белоснежки»: опасность общеизвестных истин


Оригинал: ChatGPT’s ‘Snow White’ Problem: The Danger of Common Knowledge

ChatGPT — невероятный инструмент, революционизировавший наше взаимодействие с технологиями. Все больше и больше людей полагаются на этот мощный чат-бот с искусственным интеллектом в поиске ответов на самые насущные вопросы, привлекаемые минимальным порогом вхождения, обширными познаниями и творческим подходом, который он демонстрирует.

Новейший сервис искусственного интеллекта ChatGPT демонстрирует феноменальный скачок в технологии машинного обучения, но он не лишен недостатков — в первую очередь это касается качества ответов. Чтобы разобраться в этой проблеме, нам надо обратиться ко другому направлению развития искусственного интеллекта с растущей популярностью — семантическим рассуждениям.

«Проблема Белоснежки» и объяснимый искусственный интеллект

Если вы спросите у ChatGPT, как назывался первый полнометражный мультфильм, то он уверенно назовет «Белоснежку и семь гномов», вышедшую на экраны в 1937 году. На первый взгляд, ответ правильный. Мы все слышали об этом мультфильме, и большинство не усомнится бы в правильности такого ответа. Однако в действительности «Белоснежка и семь гномов» был не первым полнометражным мультфильмом, а вторым. До него в 1917 году появился относительно малоизвестный аргентинский мультфильм «Апостол», ныне позабытый за давностью лет.

Таким образом, на вопрос о первом полнометражном мультфильме ChatGPT дает неверный ответ.

Но вот в чем проблема: ChatGPT «знает», что «Белоснежка и семь гномов» — первый анимационный фильм потому, что в этом убеждено большинство людей. Это распространенное заблуждение, годами циркулирующее в Интернете, использовалось для обучения ChatGPT, и теперь чат-бот транслирует это заблуждение нам. При этом ChatGPT знает о существовании мультфильма «Апостол» и может предоставить всю информацию, необходимую человеку для правильного ответа на вопрос. Таким образом, проблема заключается не в данных, а в алгоритме понимания вопроса и выдачи ответа.

ChatGPT показывает, что он знает об «Апостоле» и о том, что он появился на много лет раньше «Белоснежки».

Причем проблема не только в том, что нам дают ложный ответ, но еще и в том, что нет никакого способа отличить его от правды. Как и все другие ИИ, основанные на алгоритмах машинного обучения, ChatGPT не в состоянии объяснить, почему он дал такой ответ. Да, вы можете попросить у него объяснение, но это не решит проблему, поскольку вы не можете быть уверены в правдивости объяснения. Вот так из-за сказочной спящей красавицы мы оказываемся в пучине экзистенциального кризиса.

Здесь ярко проявляются одна из сильных сторон машинного обучения и одновременно его самый большой недостаток — ответы, которые оно дает, основаны на статистической вероятности. В некоторых ситуациях это то, что нужно, но там, где требуются точные результаты или необходимо учитывать контекст, очевидно, нужен другой подход.

Как повысить точность и достоверность с помощью объяснимого искусственного интеллекта

Механизм семантических рассуждений, лежащий в основе искусственного интеллекта, основанного на правилах, позволяет выводить новую информацию из имеющегося набора данных с помощью набора логических правил. В противоположность этому, машинное же обучение основано на применении ранее освоенного поведения к новой ситуации. Явное преимущество семантических рассуждений заключается в том, что он дает возможность шаг за шагом проследить всю цепочку рассуждений, в результате которых был сделан тот или иной вывод. Объяснение полученного результата больше не напоминает попытку заглянуть в черный ящик; весь ход работы можно детально рассмотреть, и вы на 100% можете быть уверены, что результаты логически вытекают из заданных правил.

Чтобы понять всю важность достоверности в работе ИИ, представьте себе автономное транспортное средство, которое на основе статистических данных принимает решение, цена которого — столкновение или его предотвращение. Некоторые автомобильные компании, начавшие вместо этого полагаться на механизм семантических рассуждений, уже увидели преимущества искусственного интеллекта, основанного на правилах.

Вот тут-то и пригодится RDFox. RDFox — это разработанное в Оксфордском университете мощное программное обеспечение искусственного интеллекта, включающее граф знаний и машину семантических рассуждений.

С помощью RDFox мы можем создать простое правило: найди самый старый полнометражный мультфильм и присвой ему тег OldestAnimatedFilm. Загрузив в RDFox полный набор данных (мы использовали Wikidata), мы можем задать тот же вопрос: «как назывался первый полнометражный мультфильм?». Мы задаем его с помощью специального запроса вместо естественного языка, но смысл тот же. Разумеется, RDFox ответит «Апостол», и если его спросить почему, он даст исчерпывающие объяснения — покажет правило, которое мы создали, плюс факты, которые соответствовали условиям.

У RDFox запрашивают подробную информацию о фильме с тегом OldestAnimatedFilm. Он отвечает «Апостол» и сообщает дату его выхода.

Дело не только в качестве данных: как с помощью искусственного интеллекта получать точные ответы

Как мы увидели, проблема не сводится к качеству данных. Качество данных конечно очень важно, но не менее важны также интерпретируемость и корректность результатов. Рассматриваемый пример не относится к категории вопросов жизни или смерти, но давайте задумаемся о некоторых вопросах из реального мира.

Совершил ли этот человек мошенничество?

Нуждается ли этот пациент в лечении?

Безопасно ли совершить поворот этому транспортному средству?

Вопрос точных, поддающихся проверке результатов вдруг становится критическим. Когда ставки столь высоки, права на ошибку нет. Но даже если нет — разве вы не предпочтете, чтобы решения принимались на основе ответов, которые можно обосновать логикой и здравым смыслом?

Может ли искусственный интеллект, основанный на правилах, такой как RDFox, написать стихотворение? Нет. Но он даст вам проверяемые правильные ответы, цена которых в некоторых ситуациях — выбор между успехом и катастрофой.

Обсудить