一个网页中有50个表格,现在要全部爬取下来保存到excel表格中。
每个表格的xpath是有规律的,借助这个批量爬取表格内容。
在deepseek中输入提示词:
写一个Python脚本,提取网页中的表格数据,具体步骤如下:
在F盘新建一个excel工作簿,名称为public-apis.xlsx
打开网页:https://github.com/public-apis/public-apis
定位其中Xpath=//*[@id="repo-content-pjax-container"]/div/div/div[2]/div[1]/react-partial/div/div/div[3]/div[2]/div/div[2]/article/div[{hnumber}]/h3 的h3标签,变量{hnumber}的值是从8到58,提取h3标签的内容,设为变量{excelname},作为public-apis.xlsx工作簿中工作表的名称;
定位其中Xpath=//*[@id="repo-content-pjax-container"]/div/div/div[2]/div[1]/react-partial/div/div/div[3]/div[2]/div/div[2]/article/markdown-accessiblity-table[{tablenumber}]/table的table标签,变量{tablenumber}的值是从3到53,定位每个tr标签,然后提取每个tr标签中所有td标签中的内容写入public-apis.xlsx工作簿中的{excelname}工作表的一行,提取每个tr标签中的第1个td标签中的a标签的文本内容和href属性值,写入public-apis.xlsx工作簿中的{excelname}工作表的同一行;
注意:每一步都要输出信息到屏幕上
在某些情况下,a_elements[0].text 可能是 None,而 None 没有 strip 方法。我们需要在调用 strip 方法之前检查 a_elements[0].text 是否为 None
程序运行成功
多个表格的数据保存到工作表