Есть 2 огромных (5-6 ГБ) csv-файла каждый. Теперь цель состоит в том, чтобы сравнить оба этих файла. сколько строк совпало и сколько строк не совпало?
Допустим, файл file1.csv содержит 5 одинаковых строк, нам нужно считать его за 1, а не за 5. Точно так же для file2.csv, если есть избыточные данные, нам нужно считать их как 1.
Я ожидаю, что на выходе будет отображаться количество совпадающих строк и нет. строк, которые отличаются.
Файлы в том же порядке?
Будет ли это работать @framontb, если они идентичны, но в одном просто отсутствует первая строка?
Он найдет одинаковые строки без порядка. Первая строка в файле будет соответствовать последней строке другого.
Скажем, в файле 1 есть повторяющиеся строки, считается ли одинаковым, если эти повторяющиеся строки появляются в файле 2 одинаковое количество раз? Можете ли вы добавить все эти случаи также в ваше описание.
@framontb Файл существует на машине с Linux, и у нас там нет MongoDb. Мы используем Хайв.
Я не знаю Хайва. Возможно, вы могли бы использовать трансформация для создания хэша построчно, удаления дубликатов, затем сортировки, последнего сравнения.
В качестве первого шага я бы рекомендовал удалить заголовки, отсортировать строки и удалить дубликаты; это можно легко сделать с помощью инструментов командной строки, таких как tail
(есть параметр, который заставляет выводить все, кроме первой строки), sort
(для сортировки строк) и uniq
(для удаления дубликатов после сортировки) и сделать сравнение потом легче/быстрее.
Я написал компаратор файлов на python, который может оптимально сравнивать огромные файлы и получать количество совпадающих строк и количество разных строк. Замените input_file1 и input_file2 двумя большими файлами и запустите его. Дайте мне знать результаты.
input_file1 = r'input_file.txt'
input_file2 = r'input_file.1.txt'
__author__ = 'https://github.com/praveen-kumar-rr'
# Simple Memory Efficient high perfomance file comparer.
# Can be used to efficiently compare large files.
# Alogrithm:
# Hashes the lines and compared first.
# Non matching lines are picked as different count.
# All the matching lines are taken and the exact lines are read from file
# These strings undergo same comparison process based on string itself
def accumulate_index(values):
'''
Returns dict like key: [indexes]
'''
result = {}
for i, v in enumerate(values):
indexes = result.get(v, [])
result[v] = indexes + [i]
return result
def get_lines(fp, line_numbers):
'''
Reads lines from the file pointer based on the lines_numbers list of indexes
'''
return (v for i, v in enumerate(fp) if i in line_numbers)
def get_match_diff(left, right):
'''
Compares the left and right iterables and returns the matching and different items
'''
left_set = set(left)
right_set = set(right)
return left_set ^ right_set, left_set & right_set
if __name__ == '__main__':
# Gets hashes of all lines for both files
dict1 = accumulate_index(map(hash, open(input_file1)))
dict2 = accumulate_index(map(hash, open(input_file2)))
diff_hashes, matching_hashes = get_match_diff(
dict1.keys(), dict2.keys())
diff_lines_count = len(diff_hashes)
matching_lines_count = 0
for h in matching_hashes:
with open(input_file1) as fp1, open(input_file2) as fp2:
left_lines = get_lines(fp1, dict1[h])
right_lines = get_lines(fp2, dict2[h])
d, m = get_match_diff(left_lines, right_lines)
diff_lines_count += len(d)
matching_lines_count += len(m)
print('Total number of matching lines is : ', matching_lines_count)
print('Total number of different lines is : ', diff_lines_count)
Я надеюсь, что этот алгоритм работает
Загрузите два файла в базу данных документов (MongoDb, CouchDB,...) как две коллекции, причем каждая строка файлов имеет свой собственный хеш-ключ. Сравните хеш-ключи, чтобы найти совпадения.