Ведущий исследователь по безопасности в OpenAI Лилиан Венг объявила в пятницу, что покидает компанию. Венг занимала должность вице-президента по исследованиям и безопасности с августа, а до этого была руководителем команды по безопасности в OpenAI.
В посте на X Венг написала: «После семи лет в OpenAI я готова к новому этапу и хочу попробовать что-то другое». Венг отметила, что её последний рабочий день – 15 ноября, но не уточнила, куда планирует перейти.
«Мне пришлось принять чрезвычайно трудное решение уйти из OpenAI», — написала Венг. «Смотря на то, чего мы достигли, я горжусь каждым членом команды по безопасности, и я уверена, что команда будет процветать и дальше».
Уход Венг – это очередной случай из череды увольнений исследователей в области безопасности ИИ, специалистов по политике и других руководителей, покинувших компанию за последний год. Некоторые из них обвинили OpenAI в том, что компания уделяет приоритетное внимание коммерческим продуктам, а не безопасности ИИ. Также в этом году компанию OpenAI покинули Илья Суцкевер и Ян Лейке, чтобы работать над безопасностью ИИ в других компаниях
Венг пришла в OpenAI в 2018 году, начав с работы в команде по робототехнике, которая разработала роботизированную руку, способную решать кубик Рубика — задача, на выполнение которой потребовалось два года, как она упомянула в своем посте.
Когда OpenAI стала сосредотачиваться на моделях GPT, Венг тоже перешла к этому направлению. В 2021 году она начала помогать в создании прикладной исследовательской команды компании. После выпуска GPT-4 Венг поручили создать отдельную команду для разработки систем безопасности в 2023 году. На сегодняшний день подразделение по безопасности OpenAI насчитывает более 80 ученых, исследователей и экспертов по политике, как сообщила Венг.
Несмотря на значительное количество специалистов по безопасности ИИ, многие обеспокоены тем, что OpenAI сосредотачивается на создании всё более мощных ИИ-систем, ставя безопасность на второй план.
«Мы высоко ценим вклад Лилиан в прорывные исследования безопасности и создание строгих технических защитных мер», — заявил представитель OpenAI. «Мы уверены, что команда по безопасности будет продолжать играть ключевую роль в обеспечении безопасности и надежности наших систем, обслуживающих сотни миллионов людей по всему миру».
Среди других руководителей, покинувших OpenAI в последние месяцы, числятся технический директор Мира Муратти, директор по исследованиям Боб Макгру и вице-президент по исследованиям Баррет Зоф. В августе также ушли известный исследователь Андрей Карпати и соучредитель Джон Шульман. Некоторые из этих специалистов, включая Лейке и Шульмана, ушли в конкурирующую компанию Anthropic, в то время как другие основали собственные проекты.
ссылка на оригинал статьи https://habr.com/ru/articles/857334/
Добавить комментарий