Я помещаю данные асинхронного потока csv из каждого URL-адреса в каждый файл один за другим, как показано ниже.
async with httpx.AsyncClient(headers = {"Authorization": 'Token token = "sometoken"'}) as session:
for url in some_urls_list:
download_data(url, session)
@backoff.on_exception(backoff.expo,exception=(httpx.SomeException,),max_tries=7,)
async def download_data(url, session):
while True:
async with session.stream("GET", url) as csv_stream:
csv_stream.raise_for_status()
async with aiofiles.open("someuniquepath", "wb") as f:
async for data in csv_stream.aiter_bytes():
await f.write(data)
break
Я загружаю эти данные в Splunk через inputs.conf
и props.conf
, как показано ниже.
[monitor:///my_main_dir_path]
disabled = 0
index = xx
sourcetype = xx:xx
[xx:xx]
SHOULD_LINEMERGE = false
LINE_BREAKER = ([\r\n]+)
NO_BINARY_CHECK = true
CHARSET = UTF-8
INDEXED_EXTRACTIONS = csv
TIMESTAMP_FIELDS = xx
Я получаю несколько проблем в этом, как показано ниже.
Что можно сделать на стороне конфигурации Splunk, чтобы решить вышеуказанные проблемы, при этом позаботившись о том, чтобы это не вызывало проблем с дублированием индексации данных?
Пример данных: (Первая строка — заголовок.)
A,B B,C D,E,F,G H?,I J K,L M?,N/O P,Q R S,T U V (w x),Y Z,AA BB,CC DD,EE FF,GG HH,II JJ KK,some timestamp field,LL,MM,NN-OO,PP?,QQ RR ss TT UU,VV,WW,XX,YY,ZZ,AAA BBB,CCC,DDD-EEE,FFF GGG,HHH,III JJJ,KKK LLL,MMM MMM,NNN OOO,PPP QQQ,RRR SSS 1,TTT UUU 2,VVV WWW 3,XX YYY,ZZZ AAAA,BBBB CCCC
[email protected],"bbdata, bbdata",ccdata ccdata,eedata eedata - eedata,ffdata - ffdata - 725 ffdata ffdata,No,,No,,,,,unknown,unknown,unknown,2.0.0,"Sep 26 22:40:18 iidata-iidata-12cb65d081f745a2b iidata/iidata[4783]: iidata: to=<[email protected]>, iidata=iidata.iidata.iidata.iidata[111.111.11.11]:25, iidata=0.35, iidata=0.08/0/0.07/0.2, iidata=2.0.0, iidata=iidata (250 2.0.0 OK 1569537618 iidata.325 - iidata)",9/26/2019 22:40,,,,,,,wwdata,xxdata,5,"zzdata, zzdata",aaadata aaadata aaadata,cccdata - cccdata,ddddata - ddddata,fffdata,hhhdata,25/06/2010,6,2010,"nnndata nnndata nnndata, nnndata.",(pppdata'pppdata) pppdata pppdata,,,,303185,,
Пример сломанного события:
[email protected],"bbdata, bbdata",ccdata ccdata,eedata eedata - eedata,ffdata - ffdata - 725 ffdata ffdata,No,,No,,,,,unknown,un
known,unknown,2.0.0,"Sep 26 22:40:18 iidata-iidata-12cb65d081f745a2b iidata/iidata[4783]: iidata: to=<[email protected]>, iidata=iidata.iidata.iidata.iidata[111.111.11.11]:25, iidata=0.35, iidata=0.08/0/0.07/0.2, iidata=2.0.0, iidata=iidata (250 2.0.0 OK 1569537618 iidata.325 - iidata)",9/26/2019 22:40,,,,,,,wwdata,xxdata,5,"zzdata, zzdata",aaadata aaadata aaadata,cccdata - cccdata,ddddata - ddddata,fffdata,hhhdata,25/06/2010,6,2010,"nnndata nnndata nnndata, nnndata.",(pppdata'pppdata) pppdata pppdata,,,,303185,,
Я надеюсь, что вы отслеживаете что-то гораздо более конкретное, чем каталог верхнего уровня. В противном случае вы рискуете, что у Splunk закончатся открытые файлы и/или память.
Частичные строки и разделенные строки являются симптомами неправильных настроек props.conf. Невозможно предложить исправления, не видя некоторых событий.
Также возможно, что Splunk читает файл слишком быстро. Попробуйте добавить эти настройки в inputs.conf:
multiline_event_extra_waittime = true
time_before_close = 3
Попробую, отслеживая определенный шаблон файла, а также с предоставленными 2 строками конфигурации, и вернусь. Также добавлен образец данных для описания проблемы внизу.