Новости партнеров

Жизнь

Эксперт рассказал, как поймать на лжи ИИ

В журнале Nature было опубликовано исследование, проведенное британскими учеными. Они разработали метод, который позволяет точно определить, когда чат-боты с искусственным интеллектом (ИИ) говорят неправду.

Ученые отмечают, что современные чат-боты иногда ведут себя подобно людям, демонстрируя конфабуляцию — это явление, при котором реальные воспоминания сочетаются с вымышленными событиями. Исследователи предложили новый способ выявления ложной информации, генерируемой ИИ.

В статье отмечается, что ChatGPT и аналогичные инструменты не могут намеренно лгать, но они способны предоставлять неточные данные из-за недостатка информации. Кроме того, на некоторые вопросы можно дать разные ответы, что приводит к статистической неопределенности. Это происходит, когда чат-бот не знает, как правильно сформулировать ответ, или не имеет необходимой информации для ответа.

Исследователи сосредоточились на явлении, которое они называют семантической энтропией. Они задают ИИ один и тот же вопрос несколько раз, а затем определяют, сколько ответов семантически эквивалентны друг другу. Если большое количество ответов совпадает по смыслу, то модель ИИ, вероятно, не уверена в формулировке, но имеет правильный ответ. В противном случае чат-бот может выдавать ложную информацию.

Ученые пояснили, что их метод заключается в выборе нескольких возможных ответов на каждый вопрос и их алгоритмической группировке. Если из предложения А следует, что предложение Б истинно, и наоборот, то эти предложения можно считать находящимися в одном семантическом кластере.

Ранее стало известно, как понять, что статью написал искусственный интеллект.

Самое важное - в нашем Telegram-канале

Чтобы сообщить нам об опечатке, выделите ее мышкой и нажмите Ctrl+Enter

Комментарии
Рассказать новость