最新回答 / 慕姐2343858
百科的链接改为:"https://baike.baidu.com/item/Python/407313"然后重新定义html_parser中的正则表达式试试?links = soup.find_all('a', href=re.compile(r"/item/.*"))
2020-07-01
最赞回答 / qq_慕妹1369220
import urllib.request
from http import cookiejar
url='https://www.baidu.com/'
print('第一种方法')
response1=urllib.request.urlopen(url)
print(response1.getcode())
print(len(response1.read()))
print('第二种方法')
request = urllib.requ...
2020-05-21
第三种方法,urlopen的时候应该用初始化好的可以存储cookie类型的opener才对哇,如下:
response3 = opener.open(url)
response3 = opener.open(url)
2020-05-05