У меня есть готовая база данных, полная 512-мерных векторов, и я хочу реализовать эффективный алгоритм поиска по ним.
Косинусное сходство:
Лучший алгоритм в этом случае будет состоять из меры косинусное подобие, которая в основном представляет собой нормализованное скалярное произведение, которое:
def cossim(a, b): numpy.inner(a, b)/(numpy.linalg.norm(a)*numpy.linalg.norm(b))
В Python.
Линейный поиск:
Наиболее очевидным и простым поиском в этом случае будет линейный поиск O (n), который выполняет итерацию по всей базе данных и в конечном итоге выбирает наиболее похожий результат:
def linear_search(query_text, db): # where db is set of 512D vectors
most_similar = ("", 0) # placeholder
for query in db:
current_sim = cossim(query_text, query) # cossim function defined above
if current_sim > most_similar[1]:
most_similar = (query, current_sim)
return most_similar[0]
Как видите, необходимо сканировать всю базу данных, что может быть неэффективным, если база данных содержит сотни тысяч векторов.
Квазилинейный поиск: (решено частично)
Существует фундаментальная связь между косинусным подобием и Евклидово расстояние (очень хорошо объяснено в этом ответе) - мы можем получить евклидово расстояние из следующего уравнения:
|a - b|² = 2(1 - cossim(a,b))
Как упоминалось в ответе, евклидово расстояние будет уменьшаться по мере увеличения косинуса между двумя векторами, поэтому мы можем превратить это в проблему ближайшие пары точек, которую можно решить за время квазилинейныйO(n log n)
, используя рекурсивный разделяй и властвуй алгоритм.
Таким образом, я должен реализовать свой собственный алгоритм «разделяй и властвуй», который найдет ближайшую пару из 512 размерных векторов.
Но, к сожалению, решить эту проблему напрямую невозможно из-за большой размерности векторов. Классический алгоритм «разделяй и властвуй» предназначен только для двух измерений.
Индексирование для бинарного поиска (не решено):
Насколько мне известно, лучший способ оптимизировать поиск сходства по косинусу с точки зрения скорости - это индексация, а затем выполнение бинарного поиска.
Основная проблема здесь в том, что индексирование 512-мерных векторов довольно сложно, и я пока не знаю ничего, кроме хеширование с учетом местоположения, которые могут или не могут быть полезны для индексации моей базы данных (основная проблема заключается в уменьшении размерности, что может вызвать последующие снижение точности).
Существует новый метод Угловое многоиндексное хеширование, который, к сожалению, работает только для двоичных векторов и размерности независимое вычисление подобия, если векторы разрежены, но это не так.
Наконец, есть еще Оптимальный алгоритм для приближенного ближайшего Поиск соседей в фиксированных размерах, который на первый взгляд может быть лучшим решением, но в документе сказано:
Unfortunately, exponential factors in query time do imply that our algorithm is not practical for large values of d. However, our empirical evidence in Section 6 shows that the constant factors are much smaller than the bound given in Theorem 1 for the many distributions that we have tested. Our algorithm can provide significant improvements over brute-force search in dimensions as high as 20, with a relatively small average error.
Мы пытаемся выполнить запрос по размерным векторам 20 * 25.6 = 512
, что сделает описанный выше алгоритм крайне неэффективным.
Был похожий вопрос, содержащий аналогичные проблемы, но, к сожалению, решение для индексации еще не было найдено.
Есть ли способ оптимизировать поиск подобия косинуса для таких векторов, кроме квазилинейного поиска? Может быть, есть другой способ индексирования многомерных векторов? Я считаю, что что-то подобное уже делалось раньше.
Я считаю, что нашел решение, которое потенциально может быть решением, оно включает в себя рандомизированные деревья разделов для индексации пары сотен размерных векторных баз данных, что, как я считаю, именно то, что мне нужно. (посмотреть здесь)
Спасибо!
@AntonioSimunovic Через месяц после этого вопроса я тоже стал искать методы аппроксимации - и вы, вероятно, должны знать алгоритм хеширования, чувствительный к локальности, который в настоящее время кажется оптимальным с точки зрения простоты и эффективности. Вы можете искать случайную проекцию для уменьшения размерности и k-d-деревья для многомерной индексации (это хорошо особенно для вашего случая). Однако я почти уверен, что для достижения эффективности в этой конкретной задаче необходимо использовать какой-то численный анализ.
Мне любопытно: как ваша проблема не совпадает с той, которую решает ИНС, используемая, скажем, для поиска изображений? На векторах размерности 960 есть ориентиры.
Привет, у вас есть новости по этой теме? Я тоже ищу решение этой проблемы, и все, на что я наткнулся, - это приблизительные методы, которые в моем случае не применимы. Мой случай на самом деле более расслаблен, так как мне нужно найти наиболее похожее в пределах определенного порога.