Начните с установки необходимых библиотек. В вашей системе должны быть установлены Python и pip (установщик пакетов для Python). Затем откройте терминал или командную строку и выполните следующую команду, чтобы установить Beautiful Soup:

pip install beautifulsoup4

Затем импортируйте необходимые библиотеки в ваш скрипт Python. Это включает в себя библиотеку запросов, которая будет использоваться для отправки HTTP-запроса на веб-сайт, который вы хотите очистить, и библиотеку Beautiful Soup:

import requests
from bs4 import BeautifulSoup

Используйте библиотеку запросов, чтобы отправить запрос HTTP GET на веб-сайт, который вы хотите очистить. Для этого можно использовать метод requests.get(). В следующем примере мы очищаем веб-сайт https://www.example.com:

url = 'https://www.example.com'
response = requests.get(url)

Разберите HTML-контент веб-сайта с помощью Beautiful Soup. Класс BeautifulSoup из библиотеки bs4 можно использовать для анализа содержимого HTML. В следующем примере мы используем анализатор lxml:

soup = BeautifulSoup(response.content, 'lxml')

Используйте объект Beautiful Soup для навигации и поиска в дереве HTML. Вы можете использовать различные методы, такие как find(), find_all(), select() и т. д., для поиска элементов и извлечения данных. Например, если вы хотите получить все ссылки на веб-странице, вы можете использовать soup.find_all('a')

Извлеките необходимые данные из объекта Beautiful Soup. После того, как вы нашли интересующие вас элементы, вы можете извлечь данные, обратившись к атрибутам элемента, таким как .text или ['href'].

Храните данные в формате по вашему выбору, например, в файле CSV или файле json.

Выполняйте обработку ошибок и обработку исключений в случае каких-либо проблем с сетью или любых других проблем.

И вы закончили с веб-скрапингом.

Это общее руководство по созданию скрипта парсинга веб-страниц с использованием Python и Beautiful Soup. Возможно, вам придется настроить код в зависимости от веб-сайта, который вы очищаете, и данных, которые необходимо извлечь.