Dark
Light
06.12.2025
THE ASHGABAT TIMES

Эффективная настройка LLM: Microsoft представляет методику MoRA

29.05.2024

Учёные раскрыли, как снизить затраты на обучение больших языковых моделей.

Специалисты из Microsoft – это американская многопрофильная компания, занимающаяся разработкой программного обеспечения и производством компьютерной техники. Она была основана в 1975 году Биллом Гейтсом и Полом Алленом и на сегодняшний день является одной из самых крупных и известных IT-компаний в мире. <br><br> Среди продуктов Microsoft наиболее известными являются операционные системы Windows, пакеты офисных приложений Office, браузер Internet Explorer и поисковая система Bing. Кроме того, компания занимается разработкой программного обеспечения для серверов, баз данных, игровых консолей Xbox и многих других устройств. <br><br> Microsoft также предоставляет услуги облачных вычислений и хранения данных через свою платформу Azure, а также занимается разработкой искусственного интеллекта и других инновационных технологий. Компания имеет филиалы по всему миру и сотрудничает с многими крупными корпорациями и организациями." data-html="true" data-original-title="Microsoft" >Microsoft и Бэйханского Университета разработали инновационную технику для тонкой настройки больших языковых моделей (LLM), которая значительно снижает затраты.

Новая методика «MoRA» представляет собой параметрически эффективную технику тонкой настройки (PEFT-методы (Parameter-Efficient Fine-Tuning) — это подходы к дообучению LLM-моделей, которые позволяют сократить количество обучаемых параметров, сохраняя при этом высокую производительность модели. <br> <br> Основная идея PEFT-методов заключается в адаптации небольшого числа параметров, а не всей модели, что делает процесс дообучения более эффективным и менее ресурсоёмким. <br> <br> Примеры PEFT-методов включают Low-Rank Adaptation (LoRA), адаптацию через мягкие промпты (prompt tuning) и другие техники, использующие небольшие модули или слои для дообучения." data-html="true" data-original-title="PEFT" >PEFT), устраняющую ограничения другого популярного метода – LoRA (low-rank adaptation). MoRA особенно полезна, когда необходимо обучить модель новым знаниям. С ростом популярности PEFT-методов в бизнес-среде, MoRA может стать важным инструментом для разработчиков LLM-приложений.

Преимущества и недостатки LoRA

Классическая тонкая настройка требует обновления всех параметров модели, что становится затратным и медленным процессом при наличии миллиардов параметров. PEFT-методы позволяют найти оптимальное подмножество параметров, необходимых для настройки модели под конкретную задачу.

LoRA (Low-Rank Adaptation) — метод адаптации LLM-моделей, при котором веса предобученной модели фиксируются, а к ним добавляются обучаемые матрицы низкого ранга. Метод позволяет значительно уменьшить количество параметров, необходимых для дообучения модели на новые задачи, сохраняя её производительность." data-html="true" data-original-title="LoRA" >LoRA стала популярной благодаря способности обновлять параметры через матрицы низкого ранга, что значительно снижает требования к памяти. Однако LoRA не всегда справляется с более сложными задачами, такими как математическое рассуждение и постоянное предварительное обучение.

Введение MoRA

LoRA (слева) использует матрицы низкого ранга, а MoRA (справа) использует одну квадратную матрицу для точной настройки с эффективным использованием параметров

Для устранения ограничений LoRA учёные представили MoRA, которая использует квадратные матрицы вместо низкоранговых. Главная идея MoRA заключается в использовании обучаемых параметров для достижения максимального ранга в пространстве исходных размеров модели. В отличие от LoRA, входные и выходные размеры адаптера MoRA не совпадают с исходной моделью, поэтому была разработана функция сжатия/декомпрессии, которая преобразует данные между двумя пространствами.

Результаты тестирования MoRA

Кривая потерь MoRA очень похожа на полную настройку для задач по запоминанию знаний

Тестирование моделей LoRA и MoRA одинакового размера показало, что MoRA значительно превосходит LoRA в задачах запоминания и приближается к производительности полностью настроенной модели. В задачах настройки инструкций и математического рассуждения MoRA показала результаты, сравнимые с LoRA, но в постоянном предобучении в биомедицинской и финансовой сферах MoRA превзошла LoRA.

PEFT для бизнеса

Тонкая настройка является важной задачей для корпоративных приложений LLM. Она позволяет компаниям использовать меньшие модели для задач, ранее требовавших дорогих передовых моделей. LoRA и её варианты являются золотым стандартом параметрически эффективной тонкой настройки. Существует множество инструментов и платформ для создания адаптеров LoRA, таких как S-LoRA, позволяющий запускать тысячи адаптеров на одном GPU.

Ученые выпустили реализацию MoRA с открытым исходным кодом, совместимую с LoRA. Это может оказаться важным инструментом для корпоративных приложений, которые хотят добавить новые знания в базовые модели.

На перекрестке науки и фантазии — наш канал

Добавить комментарий

Your email address will not be published.

loader-image
Ashgabat
,
temperature icon
Humidity
Pressure
Wind
Wind Gust Wind Gust:
Clouds Clouds:
Visibility Visibility:
Sunrise Sunrise:
Sunset Sunset:
71b22d460868a406e5cd50c5851925a99e1898c6 THE ASHGABAT TIMES
Предыдущая история

В Петербургских вузах запустят программы обучения IT при поддержке «Яндекса»

fexkdj4dzwdiixuf5uhmyyg8dwp4eb2i THE ASHGABAT TIMES
Next Story

ИИ не спасёт экономику: Аджемоглу предрекает очередную пропасть между богатыми и бедными

Последние из Наука и образование

В Туркменистане опубликован международный научный сборник «Спорт — посол мира»

03.10.2025
В честь Международного года мира и доверия специалисты Туркменского государственного института физической культуры и спорта подготовили сборник тезисов по итогам проведенной в вузе Международной

Узбекистан готовится к переходу на 12-летнюю систему школьного образования

10.09.2025
В рамках масштабной реформы национальной системы образования Узбекистан начал подготовку к переходу на 12-летнюю школьную систему. Об этом сообщил заместитель министра дошкольного и школьного

Пустыни, жаркие дни и великие научные идеи!

20.05.2025
Туркменские и китайские ученые сосредоточились на экологических вопросах и провели расширенную встречу. На встрече главным образом обсуждались направления работы научных центров двух стран и

Учёные CERN превратили свинец в золото

15.05.2025
Большой адронный коллайдер (LHC) CERN позволил ученым осуществить мечту древних алхимиков – превратить свинец в золото! Это открытие стало одним из выдающихся достижений современной
Перейти кTop