I need a code review for my web-scraping. How to speed up web-scraping? (ENG/RUS)

Git repository

The asyncio_IMDB_scraping.py file contains asynchronous functions that scrap movie data from IMDB (country, language, director, cast)

Movie IDs are stored in data.xlsx and retrieved from there using the scrap_db.py file. I haven’t figured out a better way yet. When I imported data from exel to DataFrame in asyncio_IMDB_scraping.py, the async functions refused to work. And everything works with the list.

I did not even add the code that writes the received data to the new exel file, because, according to my calculations, this program will work 9 hours. Plus, there is a suspicion that Error 503 will not let you do this in any case (when I parsed 50 pages, for some time when I entered the site, I got such an error)

Request: I’m just learning, this is my 2nd web-scraping, I ask you to suggest how I can fix this code, I will be glad to any recommendations! The most important recommendation I want to get is how to speed up the work on collecting such a volume of information? 9 hours is unrealistic a lot …

For Russian speakers:

В файле asyncio_IMDB_scraping.py записаны ассинхронные функции, которые собирают данные о фильмах с IMDB (страна, язык, режиссер, актерский состав)

ID фильмов хранятся в data.xlsx и вынимаются от туда с помощью файла scrap_db.py. Я что-то пока не придумал способа лучше. Когда я импортировал данные из exel в DataFrame в asyncio_IMDB_scraping.py, ассинхронные функции отказывались работать. А со списком все работает.

Код, который записывает полученные данные в новый exel файл я даже не дописывал, потому что, по моим подсчетам данная программа будет собирать инфу 9 часов. Плюс есть подозрение, что Error 503 не даст это сделать в любом случае (когда я спарсил 50 страниц, какое-то время при заходе на сайт мне высвечивалась такая ошибка)

Запрос: Я только учусь, это мой 2й парсинг, прошу подсказать как можно исправить данный код, рад буду любым рекомендациям! Самая главная рекомендация, которую хочу получить - как ускорить работу по сбору такого объема информации? 9 часов это нереально много…