您的位置:首页技术文章
文章详情页

html - Python爬虫,翻页数据怎么爬,URL不变

【字号: 日期:2022-08-09 14:14:12浏览:31作者:猪猪

问题描述

网址:http://quote.eastmoney.com/ce...我想爬所有页的名称数据,(这里只有两页),判断有没有下一页的条件该怎么写呢?代码:

from selenium import webdriverdriver=webdriver.PhantomJS()url=’http://quote.eastmoney.com/center/list.html#28003684_0_2’driver.get(url)usoup = BeautifulSoup(driver.page_source, ’xml’)n=[]while True: t=usoup.find(’table’,{’id’:’fixed’}) utable=t.find_all(’a’,{’target’:’_blank’}) for i in range(len(utable)): if i % 6 ==1: n.append(utable[i].text) if #停止条件怎么写: break driver.find_element_by_xpath(r’//*@id='pagenav']/a[2]’).click() usoup = BeautifulSoup(driver.page_source, ’xml’)

后面这里就不会写了。。。

问题解答

回答1:

可以判断每一页的条目,每一页共20条,如果当前页不足20条的时候,说明此页是最后一页了,爬完当前页就该停止了

回答2:

话说 这个表格不是都有个jsonp的返回接口吗?为什么还要爬?

回答3:

走的就是jsonp接口,直接拿就好了。

非要抓取的话,只能用selenium + phantomjs 之类的模拟页面去获取了。

回答4:

http://nufm.dfcfw.com/EM_Fina...{rank:[(x)],pages:(pc)}&token=7bc05d0d4c3c22ef9fca8c2a912d779c&jsName=quote_123&_g=0.5385195357178545

标签: Python 编程