Я паршу сайт, на котором стоит ограничение 60 запросов в секунду. Как можно засыпать на секунду после 60 запросов / циклов?
	
	
	
		
После 60 запросов выдает ошибку:
	
	
	
		
Может быть ошибку можно и по-другому обойти
			
			
		Python:
	
	item = ['FFF', 'GGG', ...]
result = []
for t in item:
    response = requests.get(url=f'https://...{t}')
    result.append(response.json())
		Python:
	
	Traceback (most recent call last):
  File "/Users/ivanburylov/PycharmProjects/scraper/scrap.py", line 15, in <module>
    result.append(response.json())
  File "/Users/ivanburylov/PycharmProjects/scraper/venv/lib/python3.10/site-packages/requests/models.py", line 901, in json
    return complexjson.loads(
  File "/Library/Frameworks/Python.framework/Versions/3.10/lib/python3.10/json/__init__.py", line 346, in loads
    return _default_decoder.decode(s)
  File "/Library/Frameworks/Python.framework/Versions/3.10/lib/python3.10/json/decoder.py", line 337, in decode
    obj, end = self.raw_decode(s, idx=_w(s, 0).end())
  File "/Library/Frameworks/Python.framework/Versions/3.10/lib/python3.10/json/decoder.py", line 355, in raw_decode
    raise JSONDecodeError("Expecting value", s, err.value) from None
json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)Может быть ошибку можно и по-другому обойти
