23秋學期(僅限-高起專1909、專升本1909)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-00002
試卷總分:100 得分:100
一、單選題 (共 20 道試題,共 40 分)
1.當需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁時,應(yīng)先將其轉(zhuǎn)換成()
A.Json字符串
B.GET
C.POST
D.Request
2.Scrapy中使用Xpath獲得的結(jié)果調(diào)用了.extract方法,結(jié)果以()形式生成
A.列表
B.元組
C.字典
D.集合
3.Python中Object={'obj_1':'1','obj_2':'2'},則Objcet是()
A.列表
B.元組
C.字典
D.集合
4.當需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁時,需要先轉(zhuǎn)換成()字符串
A.Python
B.Json
C.正則表達式
D.Ajax
5.Python正則表達式模塊的findall方法提取內(nèi)容包含多個,則返回結(jié)果的列表中會包含()
A.列表
B.元組
C.字典
D.集合
6.HTTP常用狀態(tài)碼表明服務(wù)器不允許訪問那個資源的是()
A.500
B.503
C.403
D.405
7.Python中退出循環(huán)應(yīng)用關(guān)鍵字()
A.break
B.continue
C.exit
D.return
8.使用python定制mitmproxy,下面的語句請求的是()。{req.headers["User-Agent"]}
A.headers
B.文本內(nèi)容
C.目標網(wǎng)站
D.user-agent
9.requests中post請求方法的使用為requests.post('網(wǎng)址', data=data)中的data為()
A.列表
B.元組
C.字典
D.集合
10.在Scrapy的目錄下,哪個文件負責存放爬蟲的各種配置信息?()
A.spiders文件夾
B.item.py
C.pipeline.py
D.settings.py
11.通常使用()工具來模擬瀏覽器進行爬蟲請求
A.Selenium
B.Chrome
C.ChromeDriver
D.WebDriver
12.當爬蟲運行到y(tǒng)ield scrapy.Request()或者yield item的時候,下列哪個爬蟲中間件的方法被調(diào)用?
A.process_spider_output()
B.process_spider_exception()
C.process_spider_input()
D.process_start_ requests()
13.下面代碼一共執(zhí)行循環(huán)多少次(): i=0 while i<10: i+=1
A.9
B.10
C.11#0
14.使用UI Automator獲滾動屏幕的操作是得到相應(yīng)控件后使用命令()
A.scroll
B.scroll_up
C.scroll_forword
D.scroll_back
15.某些網(wǎng)站在發(fā)起Ajax請求時會攜帶()字符串用于身份驗證
A.Token
B.Cookie
C.ReqTime
D.sum
16.Python中以下哪個容器里的元素不能重復(fù)()
A.列表
B.元組
C.字典
D.集合
17.Python操作CSV文件可通過()容器的方式操作單元格
A.列表
B.元組
C.字典
D.集合
18.以下哪個命令是利用URL語法在命令行下工作的文件傳輸工具()
A.curl
B.tar -zxvf
C.mkdir
D.cp
19.Python中若定義object="12345",則print(object[::-1])輸出()
A.1
B.5
C.54321
D.程序報錯
20.在Mac OS下安裝MongoDB使用命令() install mongodb
A.brew
B.apt-get
C.sudo
D.apt
二、多選題 (共 10 道試題,共 20 分)
21.網(wǎng)絡(luò)爬蟲的用途有()
A.收集數(shù)據(jù)
B.盡職調(diào)查
C.提高流量
D.攻擊服務(wù)器
22.以下HTTP狀態(tài)碼表示服務(wù)器沒有正常返回結(jié)果的是
A.200
B.301
C.404
D.500
23.requests中post請求方法的第二個參數(shù)可以為()
A.字典
B.列表
C.json數(shù)據(jù)
D.字符串
24.HTTP常用狀態(tài)碼表明表明服務(wù)器本身發(fā)生錯誤的有()
A.403
B.404
C.500
D.503
25.MongoDB中獲取名字為db的庫的語句為()
A.client.db
B.client('db')
C.client['db']
D.client{'db'}
26.使用BeautifulSoup對象后可以使用()來查找內(nèi)容
A.find_all
B.find
C.search
D.search_all
27.Python中的容器有()
A.列表
B.元組
C.字典
D.集合
28.PyMongo刪除操作有()
A.delete
B.delete_all
C.delete_one
D.delete_many
29.PyMongo更新操作有()
A.update
B.update_all
C.update_one
D.update_many
30.Redis中的值可以支持()
A.列表
B.哈希
C.集合
D.有序集合
三、判斷題 (共 20 道試題,共 40 分)
31.使用UI Automatorr操作實體鍵的命令為device.press.實體按鍵名稱()
32.當Charles抓包以后,在Mac OS系統(tǒng)下可以按Command+F組合鍵,在Windows系統(tǒng)下按Ctrl+F組合鍵打開Charles進行搜索
33.XPath提取出來的內(nèi)容是一個SelectorList對象,它的第0個元素就是網(wǎng)頁的源代碼。
34.Python中寫CSV文件的writerow方法參數(shù)為包含字典的列表類型
35.Python中相比于findall方法,search方法對于從超級大的文本里面只找第1個數(shù)據(jù)特別有用,可以大大提高程序的運行效率。
36.process_spider_output(response, result, output)是在下載器中間件處理完成后,馬上要進入某個回調(diào)函數(shù)parse_xxx()前調(diào)用
37.Redis中寫數(shù)據(jù)命令lpush中l(wèi)代表list
38.為了保證數(shù)據(jù)插入效率,在內(nèi)存允許的情況下,應(yīng)該一次性把數(shù)據(jù)讀入內(nèi)存,盡量減少對MongoDB的讀取操作。
39.HTTP狀態(tài)碼503表示服務(wù)器內(nèi)部故障。
40.Robo 3T與RoboMongo是完全不一樣的軟件
41.使用AJAX技術(shù),可以在不刷新網(wǎng)頁的情況下更新網(wǎng)頁數(shù)據(jù)
42.Python中條件語句在使用and連接的多個表達式中,只要有一個表達式不為真,那么后面的表達式就不會執(zhí)行。
43.UI Automator Viewer與Python uiautomator可以同時使用
44.在默認情況下,Scrapyd可以從外網(wǎng)訪問
45.需要實名認證的打碼網(wǎng)站更加安全可靠。
46.requests中post請求方法的使用為requests.post('網(wǎng)址', data=data)
47.HTTP狀態(tài)碼中303狀態(tài)碼明確表示客戶端應(yīng)當采用POST方法獲取資源
48.自己能查看的數(shù)據(jù),允許擅自拿給第三方查看
49.chrome開發(fā)者工具沒法對數(shù)據(jù)進行搜索。如果想知道一個特定的異步加載內(nèi)容來自哪個請求,必須在“Network”選項卡里面一個請求一個請求地進行查看.
50.在請求頭中設(shè)置User-Agent即可正常請求網(wǎng)站
奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學習
詳情請咨詢QQ : 3230981406或微信:aopopenfd777