鍍金池/ 問答/ 數(shù)據(jù)分析&挖掘問答
離觴 回答

clipboard.png
可以通過捉包得出, 登錄url 不是https://passport.csdn.net/acc...
而是這個https://passport.csdn.net/acc...
session.post(url,data=post_data, headers=headers)
中的url 改回 https://passport.csdn.net/acc... 就可以登錄

風(fēng)畔 回答

1、要怎麼讓他以 名稱1, 名稱2, 名稱3.... 排列?
在寫sql語句的時候,寫上

order by 字段名稱 asc

2、把這個數(shù)據(jù)丟到某個全局變數(shù)?
全局變量一般以global關(guān)鍵字來聲明,具體可以參考這里
https://www.cnblogs.com/Striv...

慢半拍 回答

設(shè)置一個map = {}
遍歷fData
合并map[ownerName]信息
最后把map轉(zhuǎn)成數(shù)組就好了

硬扛 回答
重在怎么在控制臺里使用js發(fā)送請求,獲取數(shù)據(jù)?控制臺不能使用jQuery還有其他第三方庫吧?那么請求怎么發(fā)送呢

可以用 jQuery ,只要頁面有引入。
否則,你就自己 new XMLHttpRequest 就好了,自己查這個 API 的文檔吧。

久舊酒 回答

你要定位的標(biāo)簽應(yīng)該是通過js通過異步來生成的,所以沒法定位,等一段時間試試

菊外人 回答

You can match other attributes like id or class, src.

孤星 回答

假設(shè)你的這段html代碼命名為s

from bs4 import BeautifulSoup

soup = BeautifulSoup(s, "lxml")  
table = soup.find("table", {"class", "mod_table"})  # 獲得table,用class來限制唯一性
trs = table.find_all("tr")[1:-1]  # 獲得table內(nèi)的各行,去除表頭(第一行)和頁碼(最后一行)
result = [tr.find_all("td")[4] for tr in trs]  # 獲得每個tr里的所有td中的第5個(目標(biāo))

獲取html上的元素一般都可以用這種方法。

兔囡囡 回答

下載的SDK文件中的config配置參數(shù)沒有改,改成自己的微信參數(shù)就OK了

孤影 回答

為提升性能,應(yīng)減少 pandas.DataFrame.apply() 的逐行操作,在本例中可改用 numpy.where() 二元操作符,如下

In [1]: import pandas as pd

In [2]: import numpy as np

In [3]: df1 = pd.DataFrame({'t': [1,2,3], 'user_id': [10,20,30], 'v': [1.1,2.2,3.3]})

In [4]: df1
Out[4]: 
   t  user_id    v
0  1       10  1.1
1  2       20  2.2
2  3       30  3.3

In [5]: df2 = pd.DataFrame({'t': [4,1,2], 'user_id': [40,10,20], 'v': [400,100,200]})

In [6]: df2
Out[6]: 
   t  user_id    v
0  4       40  400
1  1       10  100
2  2       20  200

In [7]: df3 = pd.merge(df1, df2, how='right', on=['t', 'user_id'])

In [8]: df3
Out[8]: 
   t  user_id  v_x  v_y
0  1       10  1.1  100
1  2       20  2.2  200
2  4       40  NaN  400

In [9]: df3['v'] = np.where(np.isnan(df3.v_x), df3.v_y, df3.v_x)

In [10]: df3
Out[10]: 
   t  user_id  v_x  v_y      v
0  1       10  1.1  100    1.1
1  2       20  2.2  200    2.2
2  4       40  NaN  400  400.0

In [11]: del df3['v_x']

In [12]: del df3['v_y']

In [13]: df3
Out[13]: 
   t  user_id      v
0  1       10    1.1
1  2       20    2.2
2  4       40  400.0
敢試 回答

爬取頁面信息,對獲取的數(shù)據(jù)進(jìn)行過濾,篩選,排序等操作,通過一定的算法,把整理后的數(shù)據(jù)展示給用戶。
至于具體怎么個智能解析,外人哪里知道。

愿如初 回答

一篇不錯的反爬蟲技術(shù)方案博文:https://github.com/FantasticL...

伴謊 回答
pd.concat(frames, axis=1, join_axes=[A.index])

而不是 'A'.index, 加單引號表示其為字符串了。

茍活 回答

可能是抓錯了?微博抓包的話建議用瀏覽器打開移動端的鏈接,直接用m.weibo.com登錄就行了,那個接口很好用。

首頁 上一頁 1 2 3 4 5 6 7 8 下一頁 尾頁