Python中爬蟲程序卡死怎么辦?Python解決爬蟲程序卡死問題

在之前的文章中,我們學習了Python爬蟲爬取程序的問題,但是我們最終實現的程序存在一個非常大的問題,當進行網絡請求的時候,程序卡死,直到數據請求回來之后,程序才會從假死狀態解脫出來,今天這篇文章主要就是為了解決爬蟲程序卡死的問題,下面一起來看看吧 。

Python中爬蟲程序卡死怎么辦?Python解決爬蟲程序卡死問題


當我們使用爬蟲爬取程序的時候,如果出現卡死的狀態,可能是因為gui程序在執行操作系統的時候,出現了無響應或者是假死的狀態,通常我們采用的方法就是使用多線程,比方說我們要修改下面的這段代碼:
def thread_down(func, *args):    # 首先創建一個線程   H = threading.Thread(target=func, args=args)    H.setDaemon(True)    # 啟動線程   H.start()# 創建按鈕btn = tk.Button(win,text = '實例分析', command = lambda :thread_down(down_img))這是一段容易讓程序出現卡死的代碼,如果需要將程序從卡死的狀態釋放出來的話,我們可以在頭部導入多線程的方式,加入下面這段代碼:
import threading還可以對子線程進行設置,為了守護子線程,將t.setDaemon設置為true,默認是false 。當主線程結束之后,子線程也會跟著結束,這就是最簡單的解決辦法了,順著這個思路慢慢的修改你的程序即可 。
【Python中爬蟲程序卡死怎么辦?Python解決爬蟲程序卡死問題】有關Python中爬蟲程序卡死怎么辦?Python解決爬蟲程序卡死問題的文章就講解到這了,希望通過對文章的學習,大家能夠掌握爬蟲程序卡死的知識,也學會解決這類問題 。

    猜你喜歡