Бывший главный исследователь OpenAI утверждает, что компания не беспокоится о безопасности систем искусственного интеллекта
OpenAI гонится за блестящими продуктами и не уделяет особого внимания безопасности систем и процессов искусственного интеллекта, утверждает Ян Лейке, недавно ушедший с должности исследователя искусственного интеллекта в OpenAI. Лейке раскритиковал компанию, предупредив ее о необходимости контролировать быстрое развитие искусственного интеллекта, которое может обернуться опасной ситуацией для всего человечества.
Длинный пост на X в начале этого месяца подчеркивает обеспокоенность, которую сотрудники OpenAI выразили Сэму Альтману и его команде по поводу их приоритетов. Уход Лейке был подтвержден всего через несколько часов после того, как главный научный сотрудник Илья Суцкевер решил завершить свой путь в OpenAI.
Лейке играл ключевую роль в развитии OpenAI в течение последних нескольких лет и был частью команды, создающей в компании технологию AGI. Но он скептически относится к подходу OpenAI к этой технологии и к тому, как они планируют создавать футуристические варианты использования, не обращая внимания на безопасность и проблемы, которые ИИ создает для людей. Он также рассказал о разногласиях с OpenAI по поводу их дорожной карты, которая, похоже, ускорила его решение покинуть компанию.
«Это было такое дикое путешествие за последние ~3 года. Моя команда запустила первый в истории LLM RLHF с InstructGPT, опубликовала первый масштабируемый обзор LLM, стала пионером в области автоматизированной интерпретации и обобщения от слабого к сильному. Скоро появятся еще более интересные вещи.» — сказал Ян Лейке (@janleike) 17 мая 2024 г в своем сообщении на Х.
«Я присоединился, потому что думал, что OpenAI будет лучшим местом в мире для проведения этих исследований. Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли переломного момента», — отметил он в своем посте.
Мнения в OpenAI, похоже, разделились, и эти последние изменения позволяют предположить, что решения Альтмана довольно часто подвергается сомнению. Технологии искусственного интеллекта быстро развиваются, и это развитие становится серьезной проблемой не только для правительств по всему миру, но и для людей, работающих в таких компаниях, как OpenAI.
Комментарии Лейке иллюстрируют необходимость того, чтобы OpenAI отошла на второй план в отношении предполагаемых продуктов и работала над культурой безопасности и системами искусственного интеллекта, которые позволят искусственному интеллекту и людям процветать вместе, а не конкурировать или даже превосходить последних в ближайшем будущем.
Он заканчивает свой пост словами: «OpenAI должна стать AGI-компанией, ориентированной на безопасность, и теперь Альтман и компания должны работать над более структурированным подходом при создании ИИ для будущего.»
Источник: news18.com
0 комментариев
Добавить комментарий
Добавить комментарий