Python pandas read_sas с параметром размера фрагмента завершается с ошибкой из-за несоответствия индекса

У меня есть очень большой файл SAS, который не помещается в памяти моего сервера. Мне просто нужно преобразовать файл в формате паркета. Для этого я читаю его по частям, используя опцию chunksize метода read_sas в pandas. В основном он работает/выполняет свою работу. За исключением того, что через некоторое время происходит сбой со следующей ошибкой.

Этот конкретный файл SAS содержит 79422642 строки данных. Непонятно, почему он терпит неудачу в середине.

import pandas as pd

filename = 'mysasfile.sas7bdat'
SAS_CHUNK_SIZE = 2000000

sas_chunks = pd.read_sas(filename, chunksize = SAS_CHUNK_SIZE, iterator = True)
for sasDf in sas_chunks:
    print(sasDf.shape)


(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
(2000000, 184)
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/opt/anaconda3/lib/python3.10/site-packages/pandas/io/sas/sas7bdat.py", line 340, in __next__
    da = self.read(nrows=self.chunksize or 1)
  File "/opt/anaconda3/lib/python3.10/site-packages/pandas/io/sas/sas7bdat.py", line 742, in read
    rslt = self._chunk_to_dataframe()
  File "/opt/anaconda3/lib/python3.10/site-packages/pandas/io/sas/sas7bdat.py", line 795, in _chunk_to_dataframe
    rslt[name] = pd.Series(self._string_chunk[js, :], index=ix)
  File "/opt/anaconda3/lib/python3.10/site-packages/pandas/core/series.py", line 461, in __init__
    com.require_length_match(data, index)
  File "/opt/anaconda3/lib/python3.10/site-packages/pandas/core/common.py", line 571, in require_length_match
    raise ValueError(
ValueError: Length of values (2000000) does not match length of index (1179974)

Я только что протестировал ту же логику кода в меньшем файле SAS с меньшим количеством строк, используя меньший размер фрагмента, как показано ниже, и, похоже, он работает нормально без каких-либо ошибок, а также обрабатывает последний оставшийся фрагмент, который меньше параметра размера фрагмента. :

filename = 'mysmallersasfile.sas7bdat'
SAS_CHUNK_SIZE = 1000

sas_chunks = pd.read_sas(filename, chunksize = SAS_CHUNK_SIZE, iterator = True)
for sasDf in sas_chunks:
     print(sasDf.shape)

(1000, 5)
(1000, 5)
(1000, 5)
(1000, 5)
(983, 5)

Работает ли набор данных при чтении SAS?

Tom 20.07.2024 21:28

Есть ли в наборе данных удаленные наблюдения?

Tom 22.07.2024 18:27

Нет.

Gopala 22.07.2024 18:56
Почему в Python есть оператор "pass"?
Почему в Python есть оператор "pass"?
Оператор pass в Python - это простая концепция, которую могут быстро освоить даже новички без опыта программирования.
Некоторые методы, о которых вы не знали, что они существуют в Python
Некоторые методы, о которых вы не знали, что они существуют в Python
Python - самый известный и самый простой в изучении язык в наши дни. Имея широкий спектр применения в области машинного обучения, Data Science,...
Основы Python Часть I
Основы Python Часть I
Вы когда-нибудь задумывались, почему в программах на Python вы видите приведенный ниже код?
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
Алиса и Боб имеют неориентированный граф из n узлов и трех типов ребер:
Оптимизация кода с помощью тернарного оператора Python
Оптимизация кода с помощью тернарного оператора Python
И последнее, что мы хотели бы показать вам, прежде чем двигаться дальше, это
Советы по эффективной веб-разработке с помощью Python
Советы по эффективной веб-разработке с помощью Python
Как веб-разработчик, Python может стать мощным инструментом для создания эффективных и масштабируемых веб-приложений.
3
3
152
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Возможно, попробуйте этот код:

import pandas as pd
import pyarrow as pa
import pyarrow.parquet as pq

filename = 'mysasfile.sas7bdat'
output_filename = 'output.parquet'
SAS_CHUNK_SIZE = 2000000

writer = None  # initialize writer

sas_chunks = pd.read_sas(filename, chunksize=SAS_CHUNK_SIZE, iterator=True)

for i, sasDf in enumerate(sas_chunks):
    print(f"Processing chunk {i+1} with shape {sasDf.shape}")
    
    table = pa.Table.from_pandas(sasDf) # convert pandas DF to Arrow table
        
    if writer is None:
        # Create new Parquet file with 1st chunk
        writer = pq.ParquetWriter(output_filename, table.schema)
    
    writer.write_table(table)  # write Arrow Table to Parquet file

if writer:
    writer.close()`
  1. Он читает кусками, используя функцию pd.read_sas.
  2. pyarrow.parquet.ParquetWriter записывает данные в файл Parquet, позволяя добавлять данные частями, что подходит для таких больших наборов данных.
  3. Каждый чанк преобразуется в pyarrow.Table и записывается в файл Parquet.

На втором фрагменте произошел сбой из-за несоответствия схемы. ` Обработка фрагмента 1 с формой (2000000, 184) Обработка фрагмента 2 с формой (2000000, 184) Traceback (последний вызов): файл "test.py", строка 23, в <module> write_table(table) # записать таблицу стрелок в файл паркета Файл «/opt/anaconda3/lib/python3.10/site-packages/pyarrow/parquet‌/core.py», строка 1094, в write_table поднять ValueError(msg) ValueError: схема таблицы не соответствует схема, используемая для создания файла: `

Gopala 22.07.2024 17:57

Похоже, что в одном фрагменте есть данные, а в другом — только нули для столбца. Хммм... думаю, в таких случаях нужно разбираться индивидуально. 146c146 <какое-то имя: двоичное ---> какое-то имя: ноль

Gopala 22.07.2024 23:14

Принято и назначено вознаграждение, несмотря на другие проблемы, с которыми я столкнулся. Сам подход действенный и работоспособный.

Gopala 26.07.2024 20:15

Другие вопросы по теме