Иллюзия открытости в индустрии искусственного интеллекта

Иллюзия открытости в индустрии искусственного интеллекта

Причины маскировки открытости в компаниях ИИ

Пять десятилетий назад в Калифорнии возник клуб компьютерных любителей, известный как Homebrew Computer Club. Его участники основали концепцию открытого кода, согласно которой программы должны быть доступны для использования, изучения, модификации и обмена.

Благодаря этой философии разработчики по всему миру инициируют разработки, идущие на пользу научному прогрессу. Яркие примеры включают язык программирования Python и ядро операционной системы Linux.

Как ИИ-компании дезориентируют общественность

В настоящее время множество компаний, занятых разработкой ИИ, заявляют, что их продукция является «открытой», но на самом деле они лишь представляют общие архитектуры и скрывают ключевые детали.

Исследование, проведенное Инициативой открытого исходного кода (OSI), показало, что известные «открытые» языковые модели, такие как Llama 2 и Llama 3.x (Meta), Grok (xAI), Phi-2 (Microsoft), Mixtral (Mistral AI), не соответствуют основополагающим принципам сообщества. Разработчики не раскрывают обучающие наборы данных и другие важные детали. В лучшем случае их продукты можно охарактеризовать как «модели с открытыми весами».

Тем не менее, существуют и настоящие открытые модели, которые в основном разрабатываются некоммерческими организациями или отдельными энтузиастами.

Причины таких действий компаний

В 2024 году Европейский Союз внедрил Регламент об искусственном интеллекте, строго регламентирующий отрасль. Однако для открытого программного обеспечения этот акт включает послабления, что компании стремятся использовать в своих интересах. Эксперты именуют эту практику «отмыванием открытости» (openwashing).

Чтобы предотвратить путаницу в определениях, OSI разработала стандарт, который определяет, что такое настоящий открытый ИИ. Согласно этому стандарту, разработчики обязаны публиковать не только код, но и информацию об используемых данных.

Если публикация данных невозможна (например, по причинам защиты персональной информации), компании по крайней мере должны раскрывать источники данных и объяснять, как они были обработаны.

Эту инициативу подвергли критике в Meta в 2024 году, утверждая, что устаревшие подходы плохо отражают скорость изменений в сфере ИИ.

Законодательные органы также могут сыграть важную роль в улучшении ситуации. Например, в США уже требуют от получателей научных грантов публиковать данные исследований в открытом доступе. Широкое внедрение подобных правил сможет помочь сохранить ИИ в качестве прозрачной и доступной технологии, а не как закрытый инструмент для нескольких корпораций.

Источник: @hiaimedia

Похожие новости

Крупная кибератака парализовала работу сети винных магазинов, нанеся миллиардерские убытки

Национальная сеть магазинов, специализирующаяся на продаже алкоголя, столкнулась с масштабной кибератакой, которая привела к остановке работы более 2000 точек по всей территории страны. Компании, управляющей сетью, сообщили, что злоумышленники требуют…

Государственный список запрещённых пиратских сайтов: что нужно знать

Европейская комиссия опубликовала перечень запрещённых ресурсов, связанных с нарушением авторских прав, вместе с рабочими ссылками. Важно помнить, что заходить на такие сайты строго не рекомендуется. В списке содержатся платформы, предлагающие…