Я хочу знать, как я буду хранить файл паркета, поскольку это двоичные данные в Redis через Python?
Предыстория такова, что я хочу проверить самый быстрый способ подачи паркетного файла небольшого размера по сети. Я считаю, что хранилище объектов, такое как s3 или любая файловая система, работает медленнее. Таким образом, все сводится к самому быстрому способу обслуживания двоичных данных по сети, но при этом иметь некоторую базу данных, например структура как уровень хранения. Вероятно, данные должны находиться в памяти на стороне сервера, чтобы отправлять их по сети непосредственно в память на стороне клиента. (помните, что речь идет о файлах небольшого размера, сжатых паркетом, около 30-50 МБ, поэтому большой размер для простого чтения файловой системы и маленький для технологии больших данных, hdfs и т. д.)
Да зачем ты это говоришь? Вот и вопрос как хранить бинарные данные в Redis на примере с помощью паркетного файла...
Я изменил вопрос для таких людей, как вы, возможно, неправильно его понял...
Ладно нашел сам:
Используйте python Pandas для записи в виде байтов в память
bytes_data = df.to_parquet()
Теперь, имея сжатый формат паркета в виде байтов в памяти, можно отправить его в redis.
установить("ключ", bytes_data)
Формат паркета бинарный (всегда).