Итак, ближе к концу моего первого файла; мы позвоним /file.py
.
def get_excel_data(self):
"""Places excel data into pandas dataframe"""
# excel_data = pandas.read_excel(self.find_file())
for extracted_archive in self.find_file():
excel_data = pandas.read_excel(extracted_archive)
# print(excel_data)
columns = pandas.DataFrame(columns=excel_data.columns.tolist())
excel_data = pandas.concat([excel_data, columns])
excel_data.columns = excel_data.columns.str.strip()
excel_data.columns = excel_data.columns.str.replace("/", "_")
excel_data.columns = excel_data.columns.str.replace(" ", "_")
total_records = 0
num_valid_records = 0
num_invalid_records = 0
for row in excel_data.itertuples():
mrn = row.MRN
total_records += 1
if mrn in ("", " ", "N/A", "NaT", "NaN", None) or math.isnan(mrn):
# print(f"Invalid record: {row}")
num_invalid_records += 1
# total_invalid = num_invalid_records + dup_count
excel_data = excel_data.drop(excel_data.index[row.Index])
# continue
else:
# print(mrn) # outputs all MRN ids
for row in excel_data.itertuples():
num_valid_records += 1
continue
with open("./logs/metrics.csv", "a", newline = "\n") as f:
csv_writer = DictWriter(f, ['date', 'total_records', 'processed', 'skipped', 'success_rate'])
# csv_writer.writeheader()
currentDT = datetime.datetime.now()
success_rate = num_valid_records / total_records * 100
csv_writer.writerow(dict(date=currentDT,
total_records=total_records,
processed=num_valid_records,
skipped=num_invalid_records,
success_rate=num_valid_records / total_records * 100))
return self.clean_data_frame(excel_data)
def clean_data_frame(self, data_frame):
"""Cleans up dataframes"""
for col in data_frame.columns:
if "date" in col.lower():
data_frame[col] = pandas.to_datetime(data_frame[col],
errors='coerce', infer_datetime_format=True)
data_frame[col] = data_frame[col].dt.date
data_frame['MRN'] = data_frame['MRN'].astype(int).astype(str)
return data_frame
def get_mapping_data(self):
map_data = pandas.read_excel(config.MAPPING_DOC, sheet_name='main')
columns = pandas.DataFrame(columns=map_data.columns.tolist())
return pandas.concat([map_data, columns])
в моем втором файле я хотел бы сохранить это конечное состояние; и сделать еще одну итерацию, например.... second_file.py
def process_records(self, records, map_data, completed=None, errors=None):
"""Code to execute after webdriver initialization."""
series_not_null = False
try:
num_attempt = 0
for record in data_frame.itertuples(): # not working
print(record)
series_not_null = True
mrn = record.MRN
self.navigate_to_search(num_attempt)
self.navigate_to_member(mrn)
self.navigate_to_assessment()
self.add_assessment(record, map_data)
self.driver.switch_to.parent_frame() # not working
sleep(.5)
error_flag = self.close_member_tab(self.driver, mrn, error_flag)
except Exception as exc:
if series_not_null:
errors = self.process_series_error(exc)
return completed, error
у обоих есть import pandas
Я не слышал о файле рассола; не могли бы вы привести пример?
@Jacobr365 пожалуйста, не высмеивайте мои цели....
пожалуйста, объясните, как я сделал что-то даже близкое к тому, чтобы посмеяться над вашими целями... я попросил разъяснений, и если простое решение будет работать. Вы сказали, что не слышали о решении, и попросили привести пример, поэтому я дал вам ответ и пример, как вы просили… Если вы нашли способ воспринять это как «высмеивание вашего голы», то это на вас, потому что я ничего подобного не делал.
вы можете сохранить свой фрейм данных в файле рассола, подобном этому. также стоит отметить, что в файле рассола можно хранить практически все что угодно. вот ссылка на некоторую информацию здесь: информация о рассоле
import pandas as pd
import pickle
x = pd.DataFrame({'a':[1,2,3],'b':[4,5,6],'c':[7,8,9]})
#this will create a file called pickledata.p that will store the data frame
with open('pickledata.p', 'wb') as fh: #notice that you need the 'wb' for the dump
pickle.dump(x, fh)
#to load the file do this
with open('pickledata.p', 'rb') as fh: #you need to use 'rb' to read
df = pickle.load(fh)
#you can now use df like a normal dataframe
print(df)
на самом деле вам не нужно расширение «.p» для файла рассола, мне это просто нравится.
поэтому вы сохраняете свой фрейм данных в конце первого скрипта, а затем загружаете его в начале скрипта 2.
ценю понимание, Jac. +1 за ваши усилия.
Итак, ваша цель состоит в том, чтобы иметь код в 1 файле, получить фрейм данных pandas, сделать с ним что-то, а затем запустить другой скрипт, который работает с тем же фреймом данных? Можете ли вы просто сохранить фрейм данных как файл рассола в конце файла 1, а затем загрузить его в файл 2?