Тонкая настройка LM и быстрая разработка LLM

Можно ли точно настроить гораздо меньшую языковую модель, такую ​​как Roberta, скажем, для набора данных обслуживания клиентов, и получить такие же хорошие результаты, как можно было бы получить, запрашивая GPT-4 с частями набора данных?

Может ли точно настроенная модель Роберты научиться следовать инструкциям в разговорной манере, по крайней мере, для такой небольшой области, как эта?

Есть ли какой-либо документ или статья, которая исследует этот вопрос эмпирически, которую я могу проверить?

Стоит ли изучать PHP в 2023-2024 годах?
Стоит ли изучать PHP в 2023-2024 годах?
Привет всем, сегодня я хочу высказать свои соображения по поводу вопроса, который я уже много раз получал в своем сообществе: "Стоит ли изучать PHP в...
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
В JavaScript одним из самых запутанных понятий является поведение ключевого слова "this" в стрелочной и обычной функциях.
Приемы CSS-макетирования - floats и Flexbox
Приемы CSS-макетирования - floats и Flexbox
Здравствуйте, друзья-студенты! Готовы совершенствовать свои навыки веб-дизайна? Сегодня в нашем путешествии мы рассмотрим приемы CSS-верстки - в...
Тестирование функциональных ngrx-эффектов в Angular 16 с помощью Jest
В системе управления состояниями ngrx, совместимой с Angular 16, появились функциональные эффекты. Это здорово и делает код определенно легче для...
Концепция локализации и ее применение в приложениях React ⚡️
Концепция локализации и ее применение в приложениях React ⚡️
Локализация - это процесс адаптации приложения к различным языкам и культурным требованиям. Это позволяет пользователям получить опыт, соответствующий...
Пользовательский скаляр GraphQL
Пользовательский скаляр GraphQL
Листовые узлы системы типов GraphQL называются скалярами. Достигнув скалярного типа, невозможно спуститься дальше по иерархии типов. Скалярный тип...
1
0
873
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Я нашел средний кусок, который многое объясняет в этом здесь.

Цитируя вывод, сделанный выше,

В домене низких данных подсказки демонстрируют более высокую производительность, чем соответствующий метод тонкой настройки. Превзойти показатели SOTA в тонкая настройка, использование больших замороженных языковых моделей в сочетании с настройкой мягкой подсказки, кажется, путь вперед.

Похоже, что LLM может превзойти точную настройку модели меньшего размера для задач, специфичных для предметной области, если данные для обучения малы, и наоборот, если в противном случае.

Кроме того, по моему личному опыту работы с

Другой подход к точной настройке небольших моделей на предметных данных может заключаться в использовании более тщательно и тщательно разработанных подсказок с моделями среднего размера. Это может быть жизнеспособной альтернативой использованию API-интерфейсов, предоставляемых владельцами очень крупных проприетарных моделей.

Другие вопросы по теме