ИИ учится отличать правду от лжи: Google DeepMind создал SAFE

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

В эпоху информационного перенасыщения, где потоки данных захлестывают нас со всех сторон, вопрос достоверности информации встает особенно остро. LLM, или большие языковые модели, такие как нашумевший ChatGPT, обещают революцию в сфере поиска информации и ответов на вопросы, но их слабое место — это неточности, которые могут вводить пользователей в заблуждение. К счастью, на помощь приходит SAFE — система искусственного интеллекта, разработанная Google DeepMind, которая способна автоматически выявлять недостоверную информацию, генерируемую LLM.


Автор: Designer

SAFE работает по принципу «клин клином вышибают»: одна LLM анализирует утверждения, сгенерированные другой LLM, и использует поиск Google для проверки фактов. По сути, SAFE имитирует действия человека, который перепроверяет информацию в поисковике. В ходе тестирования SAFE продемонстрировал впечатляющие результаты, определив неточности в ответах LLM с точностью 72%, а в спорных случаях оказывался прав даже чаще, чем люди.

Это открытие имеет огромный потенциал. Во-первых, SAFE может быть использован для повышения точности самих LLM, что сделает их более надежными инструментами для различных задач, от написания кода до ответов на вопросы пользователей. Во-вторых, SAFE может стать независимым инструментом для проверки фактов, помогая бороться с дезинформацией и фейковыми новостями. В условиях, когда доверие к информации в сети постоянно падает, такой инструмент становится особенно ценным.

Важно отметить, что DeepMind выложил код SAFE в открытый доступ, что позволяет любому желающему использовать его возможности. Это решение говорит о стремлении DeepMind к прозрачности и открытости в развитии ИИ, а также дает возможность другим исследователям и разработчикам присоединиться к борьбе с дезинформацией.

Конечно, SAFE не является панацеей. Система все еще находится в стадии разработки, и ее точность может быть улучшена. Кроме того, не все вопросы имеют однозначные ответы, и в некоторых случаях даже человеку сложно определить достоверность информации. Тем не менее, SAFE — это важный шаг в направлении к более точному и надежному искусственному интеллекту, который может помочь нам отделить правду от вымысла в эпоху информационного хаоса.