selenium 爬取淘宝相关数据

2024-09-16 16:06:10 浏览数 (1)

介绍

此程序使用selenium 爬取淘宝相关数据,并且最终将数据存入json文件,爬取时间大概在10分钟左右

思路

  • 我们首先拟定爬取关键词,然后对这些信息进行批量爬取
  • 我们想要的数据有图片链接,商品标题,商品价格,位置,店铺名称.......等等数据
  • 爬取过程中会有想要翻页的情况,我们可以自己定义一个最大的爬取页数,根据selenium特点编写翻页代码

程序

新建一个loginTest.py文件,用于存放你的账号和密码,这里涉及到隐私,我使用##来代替

代码语言:python代码运行次数:0复制
USER = "##"
PWD = "##"

新建一个save_to_json.py文件,用于保存爬取数据

代码语言:python代码运行次数:0复制
import json

def save(data):
    # 保存数据的文件路径
    file_path = './taobao_data.json'

    # 将数据逐条写入文件,每条数据后添加换行符
    with open(file_path, 'a') as file:
        # 将字典转换为 JSON 字符串
        json_line = json.dumps(data)
        # 写入文件并添加换行符
        file.write(json_line   'n')

新建一个taobao_selenium文件,作为主要执行程序入口

代码语言:python代码运行次数:0复制
from selenium.common.exceptions import TimeoutException, NoSuchElementException
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By
import time
import loginTest
import save_to_json

# TODO 浏览器相关配置
options = webdriver.EdgeOptions()
options.add_experimental_option('excludeSwitches', ['enable-automation'])
prefs = {
    'credentials_enable_service': False,
    'profile.password_manager_enabled': False
}
options.add_experimental_option('prefs', prefs)
options.add_argument('--disable-blink-features=AutomationControlled')

driver = webdriver.Edge(options = options)

# TODO 关键词和最大爬取页数
KEYWORD = "ipad"
MAX_PAGE = 10

# TODO 模拟登录
login_url = f"https://login.taobao.com/member/login.jhtml?spm=a21n57.1.754894437.1.281d523cnqsuAo&f=top&redirectURL=https://s.taobao.com/search?q={KEYWORD}"
driver.get(url=login_url)

driver.find_element(By.CSS_SELECTOR, "#fm-login-id").send_keys(loginTest.USER)
driver.find_element(By.CSS_SELECTOR, "#fm-login-password").send_keys(loginTest.PWD)
driver.find_element(By.CSS_SELECTOR, "#login-form > div.fm-btn > button").click()

print("登录成功,等待主页面加载...")
wait = WebDriverWait(driver, 30)

# TODO 数据爬取
def get_data():
    try:
        divs = wait.until(EC.visibility_of_all_elements_located((By.CSS_SELECTOR, ".doubleCard--U4iHXoyX")))
        print(f"找到的元素数量: {len(divs)}")

        for div in divs:
            try:
                # TODO 获取图像链接,增加显式等待
                image_element = wait.until(
                    EC.visibility_of_element_located((By.CSS_SELECTOR, ".mainPicWrapper--FyazGV69 .mainPic--CuSfUC4j")))
                image_src = image_element.get_attribute('src')

                # TODO 获取价格元素
                price_element1 = div.find_element(By.CSS_SELECTOR, ".unit--I_fIluR5").text
                price_element2 = div.find_element(By.CSS_SELECTOR, ".priceInt--j47mhkXk").text

                # TODO 获取销售数量,使用 try-except 防止找不到元素
                try:
                    deal_element = div.find_element(By.CSS_SELECTOR, ".realSales--nOat6VGM").text
                except NoSuchElementException:
                    deal_element = "未提供"

                # TODO 获取其他信息
                title_element = div.find_element(By.CSS_SELECTOR, ".title--F6pvp_RZ").text
                shop_element = div.find_element(By.CSS_SELECTOR, ".shopNameText--APRH8pWb").text
                location_element = div.find_element(By.CSS_SELECTOR, ".procity--QyzqB59i").text

                product = {
                    'image': image_src,
                    'price': price_element1   price_element2,
                    'deal': deal_element,
                    'title': title_element,
                    'shop': shop_element,
                    'location': location_element
                }
                # TODO 控制台数据打印
                print(product)
                # TODO 调用save,将数据保存到当前路径下
                save_to_json.save(product)

            except NoSuchElementException as e:
                print(f"处理 div 时发生错误:{e}")
            except TimeoutException:
                print("超时:未能找到元素")

    except TimeoutException:
        print("超时:未找到任何匹配的元素。")

# TODO 翻页爬取
def index_page(page):
    print('正在爬取第 ', page, ' 页')
    if page > 0:
        input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#search-content-leftWrap > div.leftContent--BdYLMbH8 > div.pgWrap--RTFKoWa6 > div > div > span.next-input.next-medium.next-pagination-jump-input > input')))
        submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '#search-content-leftWrap > div.leftContent--BdYLMbH8 > div.pgWrap--RTFKoWa6 > div > div > button.next-btn.next-medium.next-btn-normal.next-pagination-jump-go')))
        input.clear()
        input.send_keys(page)
        submit.click()

        # TODO 调用数据爬取函数
        get_data()

# TODO 主函数,调度翻页批量爬取
def main():
    for i in range(1, MAX_PAGE   1):
        index_page(i)
        time.sleep(10)

main()

# TODO 程序结束
input("按回车键退出...")
driver.quit()

结果检查

  • 控制台输出,最后是点击回车,等待浏览器关闭
  • 根目录下生成一个json文件
  • 打开浏览器,使用插件查看其中一条数据

0 人点赞