Я пытаюсь записать массив данных в двоичный файл с намерением позже получить доступ к этому файлу для поиска данных. Я поискал в Интернете несколько методов сохранения данных с помощью df.to_pickle, struct.pack, np.to_bytes(). Теперь наступает часть чтения. Я нашел другие сообщения с просьбой прочитать, но пока ни одно из них не помогло получить данные. У меня сложилось впечатление, что это может быть связано с тем, как я сжимаю данные.
формат данных
0 1 2 3 . . . n
0
1 -0.111
2 0.84 0.1
3 0.25 0.6 -0.2
.
.
.
n
Это набор данных сравнения, поэтому при пересечении переменных он равен 1. Из-за ограничений выделения памяти и размера данных это привело к созданию такой таблицы данных в текстовом файле. Сохранение в памяти было невозможно, так как n может быть очень большим.
Чтобы преобразовать в двоичный формат, я читаю каждую строку текста, преобразую значения в правильный формат и затем использую numpy.array.tobytes().
save_path = Path(save_loc)
save_data = save_path.open()
with load_data_path.open() as data_chunk:
for idx, data in enumerate(data_chunk,0):
if idx == 0:
save_data.write(b"\n")
continue
dlist = data.strip("\n").split(",")
d_array = [np.float64(x) for x in dlist]
save_data.write(d_array.tobytes())
save_data.close()
для чтения данных я попытался использовать np.frombuffer и struct.unpack, но оба привели к ошибкам. Кроме того, насколько я понимаю, чтение затянет все данные в память, что не подойдет для моих данных. Я решил открыть двоичный файл, используя путь, найдя строку и прочитав ее напрямую. Вот код
find_line = 7984
load_data = Path(data_loc)
with load_data.open("rb") as data_chunk:
for idx, data in enumerate(data_chunk,0):
if idx < find_line:
continue
else:
my_line = np.frombuffer(data, "f", idx)
break
однако это приводит к ошибке
ValueError: buffer is smaller than requested size
редактировать: В ходе дальнейшего расследования я обнаружил в своем коде три проблемы. 1 заключается в том, что мое форматирование было неправильным при использовании frombuffer. Поскольку я кодирую как np.float64, вызов «f» пытается вернуть float32.
во-вторых, я предполагал, что запись двоичного файла сохранит блоки записи (с разделителем «\n» для каждого блока), но это не так, поскольку, когда я попытался просмотреть свои первые несколько строк, в каждой из них было 2000 бит, хотя их должно быть всего ~16.
наконец, кажется, что «\n» добавляется где-то в процесс, поскольку при загрузке дальше по списку я нахожу больше значений «\n», которые разбивают байты. Мне нужно загрузить ~60 000 байт, но разрывы строк возвращают только ~2500 байт.
В идеале создайте минимальный воспроизводимый пример с небольшой выборкой входных данных (скажем, 10x10), иллюстрирующий проблему.
спасибо за ответ, я разобрался с частью своей проблемы. Я обновил вопрос, чтобы отразить это. хотя я мог бы удалить, поскольку вопрос с тех пор изменился. проблема связана с отсутствием разделителей в моем двоичном файле. и «\n» не является хорошим разделителем. Я читал, что, добавив длину впереди, я могу ограничить появление новой строки, но я не уверен, как интегрировать это в настройку моей таблицы.
Размер строк переменный или фиксированный? Затем просто используйте .read(n)
, где n — количество байтов в строке (размер float64, умноженный на количество столбцов). Если формат данных n на n, напишите n и новую строку в самой первой строке файла, используйте .readline()
для ее чтения, а затем .read(n)
для всех последующих строк.
линии имеют переменный размер, но я знаю длину. Например, в строке 0 нет данных, в строке 7500 содержится 7500 значений np.float64.
Итак, прочитайте «номер строки, умноженный на 8 (размер float64)» как фиксированное количество байтов с .read(n)
. Разделитель не нужен.
спасибо большое, теперь я вижу, что можно сделать.
В двоичном файле символ b'\n'
(значение байта 0x0A) может встречаться в двоичных данных с плавающей запятой, поэтому разделители не требуются или нежелательны.
Согласно уточняющим комментариям в вопросе ОП, каждая строка (с номером от 0) содержит столбцы «строка №». numpy.float64
имеет длину 8 байт. Прочитайте байты «line# * 8» и отслеживайте номер строки.
Используйте csv.reader, чтобы упростить чтение входных данных.
input.csv (пример: обратите внимание на намеренно пустую первую строку):
-4.0
-3.0,-2.875
-2.0,-1.875,-1.75
-1.0,-0.875,-0.75,-0.625
0.0,0.125,0.25,0.375,0.5
1.0,1.125,1.25,1.375,1.5,1.625
2.0,2.125,2.25,2.375,2.5,2.625,2.75
3.0,3.125,3.25,3.375,3.5,3.625,3.75,3.875
4.0,4.125,4.25,4.375,4.5,4.625,4.75,4.875,5.0
Код (Python 3.12):
import csv
import numpy as np
# Convert data to binary file.
# Row 0 writes nothing.
# Row 1 writes one 8-byte float.
# Row 2 writes two 8-byte floats.
# etc.
with (
open('input.csv', newline='') as fin,
open('output.bin', 'wb') as fout
):
reader = csv.reader(fin)
for row in reader:
data = np.array(row, dtype=np.float64)
fout.write(data.tobytes())
# Find and display specific line in the file as float64 values.
find_line = 5 # int(input(line)) # ask for line
line = 0
row = b'' # Initialize to handle row 0 case
with open('output.bin', 'rb') as fin:
# line 0 is empty so skip read
# Read until nothing is read after that.
while line==0 or (row := fin.read(8 * line)): # float64 size(8) times number of columns in line
if line < find_line:
line += 1
else:
my_line = np.frombuffer(row, dtype=np.float64)
print(my_line)
break
else:
print('not found')
Выход:
[0. 0.125 0.25 0.375 0.5 ]
Учтите, содержат ли ваши данные
b'\n'
(байт новой строки).