Встраивание LLM против пользовательских вложений

Я новичок в теме LLM (всего 2-3 дня) и столкнулся с потенциальной проблемой в RAG Pipelines. Какое утверждение неверно/верно?

  1. Модели LLM используют самые фундаментальные единицы обработки в качестве токенов. Токены создаются с помощью токенизаторов (будут зависеть от модели)

  2. Токен передается в LLM последовательно (из списка токенов за раз, что также определяет окно контекста)

  3. При «обучении» «вложения» инициализируются случайным образом. После обучения создается матрица внедрения, в которой имеется встраивание для определенного токена.

Теперь, в RAG, почему мы можем «настраивать» наше собственное встраивание? Я понимаю, что это помогает при векторном поиске уже сохраненных внедрений, но, наконец, когда вы отправляете все это в модель, это «обходит» внедрения модели и запускает процесс вывода, как обычно? Кроме того, почему в конвейерах RAG не часто упоминаются токенизаторы?

Прошел несколько веб-сайтов, но процесс везде абстрагирован. Там упоминается «мы создаем вложения», и все готово!

Стоит ли изучать PHP в 2023-2024 годах?
Стоит ли изучать PHP в 2023-2024 годах?
Привет всем, сегодня я хочу высказать свои соображения по поводу вопроса, который я уже много раз получал в своем сообществе: "Стоит ли изучать PHP в...
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
В JavaScript одним из самых запутанных понятий является поведение ключевого слова "this" в стрелочной и обычной функциях.
Приемы CSS-макетирования - floats и Flexbox
Приемы CSS-макетирования - floats и Flexbox
Здравствуйте, друзья-студенты! Готовы совершенствовать свои навыки веб-дизайна? Сегодня в нашем путешествии мы рассмотрим приемы CSS-верстки - в...
Тестирование функциональных ngrx-эффектов в Angular 16 с помощью Jest
В системе управления состояниями ngrx, совместимой с Angular 16, появились функциональные эффекты. Это здорово и делает код определенно легче для...
Концепция локализации и ее применение в приложениях React ⚡️
Концепция локализации и ее применение в приложениях React ⚡️
Локализация - это процесс адаптации приложения к различным языкам и культурным требованиям. Это позволяет пользователям получить опыт, соответствующий...
Пользовательский скаляр GraphQL
Пользовательский скаляр GraphQL
Листовые узлы системы типов GraphQL называются скалярами. Достигнув скалярного типа, невозможно спуститься дальше по иерархии типов. Скалярный тип...
2
0
293
2
Перейти к ответу Данный вопрос помечен как решенный

Ответы 2

Потому что вы читаете очень глупые статьи о RAG, используя RAG, вы можете переобучить свой LLM (кодер, декодер и т. д.), но в основном никто им не пользуется, и достаточно выполнить векторный поиск для получения новой пользовательской информации, чтобы создать контекст для окончательного запроса LLM.

Ответ принят как подходящий

Я нашел ответ.... это была глупая мелочь. Суть вопроса в том, что когда вы извлекаете вложения на основе семантического поиска, конечный результат (независимо от того, что происходит) в конечном итоге будет преобразован только в текст, отсюда и название «дополненная» генерация — по сути, прославленный механизм улучшение контекста запроса в отношении этого простого приложения

Таким образом, по сути, два процесса (имеющие определенное встраивание в векторную БД) по сравнению с встраиванием в саму модель, естественно, являются отдельными и не влияют друг на друга.

Другие вопросы по теме