
Причины маскировки открытости в компаниях ИИ
Пять десятилетий назад в Калифорнии возник клуб компьютерных любителей, известный как Homebrew Computer Club. Его участники основали концепцию открытого кода, согласно которой программы должны быть доступны для использования, изучения, модификации и обмена.
Благодаря этой философии разработчики по всему миру инициируют разработки, идущие на пользу научному прогрессу. Яркие примеры включают язык программирования Python и ядро операционной системы Linux.
Как ИИ-компании дезориентируют общественность
В настоящее время множество компаний, занятых разработкой ИИ, заявляют, что их продукция является «открытой», но на самом деле они лишь представляют общие архитектуры и скрывают ключевые детали.
Исследование, проведенное Инициативой открытого исходного кода (OSI), показало, что известные «открытые» языковые модели, такие как Llama 2 и Llama 3.x (Meta), Grok (xAI), Phi-2 (Microsoft), Mixtral (Mistral AI), не соответствуют основополагающим принципам сообщества. Разработчики не раскрывают обучающие наборы данных и другие важные детали. В лучшем случае их продукты можно охарактеризовать как «модели с открытыми весами».
Тем не менее, существуют и настоящие открытые модели, которые в основном разрабатываются некоммерческими организациями или отдельными энтузиастами.
Причины таких действий компаний
В 2024 году Европейский Союз внедрил Регламент об искусственном интеллекте, строго регламентирующий отрасль. Однако для открытого программного обеспечения этот акт включает послабления, что компании стремятся использовать в своих интересах. Эксперты именуют эту практику «отмыванием открытости» (openwashing).
Чтобы предотвратить путаницу в определениях, OSI разработала стандарт, который определяет, что такое настоящий открытый ИИ. Согласно этому стандарту, разработчики обязаны публиковать не только код, но и информацию об используемых данных.
Если публикация данных невозможна (например, по причинам защиты персональной информации), компании по крайней мере должны раскрывать источники данных и объяснять, как они были обработаны.
Эту инициативу подвергли критике в Meta в 2024 году, утверждая, что устаревшие подходы плохо отражают скорость изменений в сфере ИИ.
Законодательные органы также могут сыграть важную роль в улучшении ситуации. Например, в США уже требуют от получателей научных грантов публиковать данные исследований в открытом доступе. Широкое внедрение подобных правил сможет помочь сохранить ИИ в качестве прозрачной и доступной технологии, а не как закрытый инструмент для нескольких корпораций.
Источник: @hiaimedia