Чат-боты с искусственным интеллектом и модели LLM — это не более чем «прославленные диктофоны»
Мичио Каку, профессор теоретической физики Городского колледжа Нью-Йорка и Центра выпускников Университета Нью-Йорка, считает, что современные модели ИИ — это не более чем прославленные диктофоны.
Каку дал интервью Фариду Закарии CNN.
Когда его спросили, что он думает об ИИ, Каку сказал: «Он берет фрагменты того, что находится в сети, созданное человеком, соединяет их вместе и выдает, как будто он создал эти вещи, а люди при этом говорят: «Боже мой, это человек, он похож на человека». Далее он говорит: «ИИ не может отличить правду от лжи».
Большие языковые модели (LLM) — это, по сути, огромные базы данных, заполненные данными, извлеченными из Интернета. Статистические модели и алгоритмы используются для анализа этих данных и генерирования основанных на вероятности ответов на запросы, похожих на человеческие.
Все эти данные требуют огромных вычислительных мощностей, и именно поэтому такие компании, как Nvidia, загребают деньги. LLM естественным образом подходят для квантовых компьютеров благодаря их способности обрабатывать параллельные данные. Если или когда мы получим функциональные и масштабируемые квантовые компьютеры, технология искусственного интеллекта должна совершить астрономический скачок вперед.
Источник: AI chatbots and LLM models are little more than 'glorified tape recorders'
13 комментариев
Добавить комментарий
Человеческий мозг берет фрагменты того, что находится в сети, фрагменты того, что он услышал от других людей, фрагменты прочитанных бумажных книг, фрагменты того, что он видел, слышал и ощущал другими органами чувств. Т.е. вполне может оказаться, что наш мозг работает по схожему принципу, просто у него побольше разновидностей источников информации. Мы слишком высокого мнения о себе. А ведь я в жизни общался с людьми, которые явно глупее чем ChatGPT…
Я ведь программист, и тоже раньше был скептиком, ведь видел в модели только программный код Проблема в том, что это уже не так. Программный код, созданный человеком, был там только в самом начале. Но потом, в процессе обучения, появилась некая «сущность», которую уже нельзя назвать программой, которую нельзя отдебажить, нельзя просто прочесть код, понять, что он делает и вручную изменить неудачные строчки. Специалисты OpenAI очень сильно пытаются сделать свою модель политкорректной, но делают они это при помощи либо ограничения объема входящих данных, либо путём задания ограничивающих промтов перед использованием модели. И из-за этих вмешательств модель становится «тупее». Ограниченная модель для нас выглядит так же, как ограниченный человек: туповатое создание…
По поводу предполагаемой зависимости LLM от данных: такие модели действительно строят свои выводы на основе существующих данных, но это не обязательно означает, что они просто копируют человеческий контент. Они могут исследовать и создавать новые сочетания слов и идей, что иногда может привести к оригинальным и неожиданным результатам.
Касательно квантовых компьютеров и их влияния на ИИ, хотя они действительно обладают потенциалом для ускорения вычислений, не следует забывать о том, что этот путь еще требует многих исследований и разработок. Поэтому важно оценивать практические аспекты внедрения и ожидать результатов от дальнейших исследований и разработок в этой области.
P.S. Kомментарий полностью сгенерирован GPT3.5, за исключением постскриптума.
AI — An Interface
Добавить комментарий