Павлова Ольга
19-05-2024, 19:15

Защищавшее человечество от ИИ подразделение OpenAI проработало менее года

Защищавшее человечество от ИИ подразделение OpenAI проработало менее года
Изображение взято с: pathofex.com
Совсем недавно стало известно, что Илья Суцкевер, заместитель главы научных исследований в OpenAI, покинул компанию. Это решение привело к распаду команды, отвечающей за управление рисками, связанными с искусственным интеллектом. Данная группа была создана с целью защиты человечества от потенциальных угроз, связанных с развитием ИИ, но просуществовала менее года.
Илья Суцкевер давно выражал беспокойство по поводу подобных рисков. Несмотря на первоначальные планы выделить до 20% вычислительных ресурсов компании на минимизацию рисков, связанных с ИИ, после его ухода члены команды были перераспределены на другие должности внутри компании.

Также известно, что Ян Лейке, ранее возглавлявший эту команду вместе с Суцкевером, также покинул OpenAI. Он высказал недовольство "культурой безопасности" в компании, заявив, что она уступила место разработке продуктов. Генеральный директор OpenAI Сэм Альтман выразил сожаление по поводу ухода Лейке и отметил, что у компании возникли разногласия по приоритетам.

Лейке подчеркнул важность безопасности в разработке генеративного ИИ и заявил, что создание машин, превосходящих человека, представляет собой опасную затею.

Этот кризис в OpenAI произошел в контексте начала преподавания искусственного интеллекта студентам в России, что отражает актуальность проблемы и необходимость разработки соответствующих стратегий безопасности в сфере ИИ.
Источник: www.gazeta.ru

Подписывайтесь:



Добавить комментарий




Общество с ограниченной ответственностью «Три «Ч», Челябинское региональное диабетическое общественное движение «ВМЕСТЕ», Региональная общественная организация помощи женщинам и детям, находящимся в кризисной ситуации «Информационно признаны в РФ иностранными агентами.