Я паршу сайт через asyncio, паршу 1000 элементов. Массив, по которому прохожу циклом, разбил на 50 массивов (20 элементов в каждом), чтобы на каждый массив выделить свое прокси (не стал вставлять часть кода с прокси, думаю это не играет роли)
	
	
	
		
Парсит в основном за 3-4 секунды, но иногда один рандомный элемент парсится более 50 секунд и выдает ошибку: Expecting value: line 1 column 1 (char 0)
В массив res заносится в итоге 998-999 элементов из 1000
В чем может быть проблема и как это можно решить? Костыли также приветствуются
			
			
		Python:
	
	res = []
async def x_get(session, t: str):
    url = f'url...{t}'
    async with session.get(url, ssl=False) as resp:
        resp_json = await resp.json(content_type=None)
        res.append(resp_json)
       
async def x_scraper():
    # 50 массивов по 20 элементов
    items = [['1', '2', '...'], ['1', '2', '...'], ['1', '2', '...'], ...]              
    async with aiohttp.ClientSession() as session:
        tasks = []
        for item in items:
            for t in item:
                task = asyncio.create_task(x_get(session, t))
                tasks.append(task)
        try:
            await asyncio.gather(*tasks)
        except Exception as ex:
            print(ex)
	Парсит в основном за 3-4 секунды, но иногда один рандомный элемент парсится более 50 секунд и выдает ошибку: Expecting value: line 1 column 1 (char 0)
В массив res заносится в итоге 998-999 элементов из 1000
В чем может быть проблема и как это можно решить? Костыли также приветствуются