Как добавить новую строку, которая копирует некоторые столбцы, но присваивает новые значения в других столбцах

У меня есть фрейм данных, который выглядит так:

df = pd.DataFrame({'VisitorID': [1000, 1000, 1000, 1000, 1000, 1000, 1000, 1000],
                   'EpochTime': [1554888560, 1554888560, 1554888560, 1554888560, 1554888560, 1521333510, 1521333510, 1521333510],
                   'HitTime': [1400, 5340, 7034, 11034, 13059, 990, 4149, 6450],
                   'HitNumber':[23, 54, 55, 65, 110, 14, 29, 54],
                   'PagePath':['orders/details', 'orders/payment', 'orders/afterpayment', 'orders/myorders', 'customercare', 'orders/details', 'orders/payment', 'orders/myorders']})

print(df)
   VisitorID   EpochTime  HitTime  HitNumber             PagePath
0       1000  1554888560     1400         23       orders/details
1       1000  1554888560     5340         54       orders/payment
2       1000  1554888560     7034         55  orders/afterpayment
3       1000  1554888560    11034         65      orders/myorders
4       1000  1554888560    13059        110         customercare
5       1000  1521333510      990         14       orders/details
6       1000  1521333510     4149         29       orders/payment
7       1000  1521333510     6450         54      orders/myorders

На самом деле мой фрейм данных +- 10 миллионов строк. И имеет в два раза больше столбцов. Данные состоят из данных веб-сайта, которые показывают поведение клиентов.

Что я хочу сделать
Чтобы проанализировать, как долго клиенты находятся на веб-сайте, прежде чем они дойдут до первой отслеживаемой страницы, я хочу добавить одну строку над каждой группой, которая копирует значения верхней строки из столбцов:

  • ID посетителя
  • ЭпохаВремя

Но дает новые значения столбцам:

  • Время попадания = 0
  • Количество попаданий = 0
  • Путь к странице = Home

Информация: Сочетание VisitorID + EpochTime делает группу уникальной.

Я достиг этого с помощью следующего кода, но для запуска требуется +- 5 минут, я думаю, что должен быть более быстрый способ:

lst = []
for x, y in df.groupby(['VisitorID', 'EpochTime']):
    lst.append(y.iloc[:1])

df_first = pd.concat(lst, ignore_index=True)

df_first['HitTime'] = 0.0
df_first['HitNumber'] = 0.0
df_first['PagePath'] = 'Home'

print(df_first)
   VisitorID   EpochTime  HitTime  HitNumber PagePath
0       1000  1521333510      0.0        0.0     Home
1       1000  1554888560      0.0        0.0     Home

df_final = pd.concat([df, df_first], ignore_index=True).sort_values(['VisitorID', 'EpochTime', 'HitNumber']).reset_index(drop=True)

print(df_final)
   VisitorID   EpochTime  HitTime  HitNumber             PagePath
0       1000  1521333510      0.0        0.0                 Home
1       1000  1521333510    990.0       14.0       orders/details
2       1000  1521333510   4149.0       29.0       orders/payment
3       1000  1521333510   6450.0       54.0      orders/myorders
4       1000  1554888560      0.0        0.0                 Home
5       1000  1554888560   1400.0       23.0       orders/details
6       1000  1554888560   5340.0       54.0       orders/payment
7       1000  1554888560   7034.0       55.0  orders/afterpayment
8       1000  1554888560  11034.0       65.0      orders/myorders
9       1000  1554888560  13059.0      110.0         customercare

Результатом df_final является мой ожидаемый результат.

Итак, вопрос в том, могу ли я сделать это более эффективным способом?

Почему в Python есть оператор "pass"?
Почему в Python есть оператор "pass"?
Оператор pass в Python - это простая концепция, которую могут быстро освоить даже новички без опыта программирования.
Некоторые методы, о которых вы не знали, что они существуют в Python
Некоторые методы, о которых вы не знали, что они существуют в Python
Python - самый известный и самый простой в изучении язык в наши дни. Имея широкий спектр применения в области машинного обучения, Data Science,...
Основы Python Часть I
Основы Python Часть I
Вы когда-нибудь задумывались, почему в программах на Python вы видите приведенный ниже код?
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
Алиса и Боб имеют неориентированный граф из n узлов и трех типов ребер:
Оптимизация кода с помощью тернарного оператора Python
Оптимизация кода с помощью тернарного оператора Python
И последнее, что мы хотели бы показать вам, прежде чем двигаться дальше, это
Советы по эффективной веб-разработке с помощью Python
Советы по эффективной веб-разработке с помощью Python
Как веб-разработчик, Python может стать мощным инструментом для создания эффективных и масштабируемых веб-приложений.
1
0
31
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Вы можете использовать DataFrame.drop_duplicates для небольшого повышения производительности:

d = {'HitTime':0,'HitNumber':0,'PagePath':'Home'}
df_first = df.drop_duplicates(['VisitorID', 'EpochTime']).assign(**d)

df_final = (pd.concat([df, df_first], ignore_index=True)
             .sort_values(['VisitorID', 'EpochTime', 'HitNumber'])
             .reset_index(drop=True))

print(df_final)

   VisitorID   EpochTime  HitTime  HitNumber             PagePath
0       1000  1521333510        0          0                 Home
1       1000  1521333510      990         14       orders/details
2       1000  1521333510     4149         29       orders/payment
3       1000  1521333510     6450         54      orders/myorders
4       1000  1554888560        0          0                 Home
5       1000  1554888560     1400         23       orders/details
6       1000  1554888560     5340         54       orders/payment
7       1000  1554888560     7034         55  orders/afterpayment
8       1000  1554888560    11034         65      orders/myorders
9       1000  1554888560    13059        110         customercare

Другая идея - изменить значения индекса в df_first путем вычитания и последней сортировки по индексу:

d = {'HitTime':0,'HitNumber':0,'PagePath':'Home'}
df_first = df.drop_duplicates(['VisitorID', 'EpochTime']).assign(**d)
df_first.index -= .5

df_final = pd.concat([df, df_first]).sort_index().reset_index(drop=True)
print(df_final)
   VisitorID   EpochTime  HitTime  HitNumber             PagePath
0       1000  1554888560        0          0                 Home
1       1000  1554888560     1400         23       orders/details
2       1000  1554888560     5340         54       orders/payment
3       1000  1554888560     7034         55  orders/afterpayment
4       1000  1554888560    11034         65      orders/myorders
5       1000  1554888560    13059        110         customercare
6       1000  1521333510        0          0                 Home
7       1000  1521333510      990         14       orders/details
8       1000  1521333510     4149         29       orders/payment
9       1000  1521333510     6450         54      orders/myorders

Не могли бы вы объяснить, что делает **d в assign()?

Erfan 10.04.2019 13:23

@Erfan - проверьте это**d means "treat the key-value pairs in the dictionary as additional named arguments to this function call."

jezrael 10.04.2019 13:27

Спасибо, это работало примерно на 100 быстрее (5 секунд). Кстати, что сделало мой код таким медленным?

Erfan 10.04.2019 13:32

@Erfan - Цикл for x, y in df.groupby(['VisitorID', 'EpochTime']): lst.append(y.iloc[:1]), а затем df_first = pd.concat(lst, ignore_index=True)

jezrael 10.04.2019 13:33

Понимаю. А для **d мы могли бы также использовать map для этого?

Erfan 10.04.2019 13:44

@Erfan - Не уверен, что понял, можешь объяснить подробнее?

jezrael 10.04.2019 13:44

Я думал об использовании pandas.Series.map для сопоставления новых значений со столбцами, но я думаю, это не сработает, поскольку это проходит через фрейм данных.

Erfan 10.04.2019 13:46

Другие вопросы по теме