2022年6月3日 端午节安康。
今天主要分享如何利用爬虫爬取区块链浏览器上的交易列表数据。
dune上没有bsc链上的转账明细数据表。Footprint Analytics上现有的bsc_transactions表transfer_type粒度不够。
python 3.7
数据存储:mysql 5.7
缓存:redis 6.2.6
开发工具:pycharm
(1)所有协议、合约、swap地址转账信息全爬不太实际,对存储要求比较高。所以针对需要分析的协议,专门去爬取对应智能合约转账是个不错的选择。
(2)区块链浏览器肯定是有反爬机制的。所以在代理选择上,要选择国外的代理。国内的代理都访问不到,具体原因你懂的。本文中不涉及代理部分,因为国外的代理厂家之前没有了解过。不过即使是上代理,对代码层面改动也比较小
Paloma与Pyth Network和AlgoReturns合作,推出去中心化跨链系统交易区块链:10月12日消息,去中心化区块链和通信协议Paloma宣布与oracle解决方案Pyth Network和算法交易解决方案AlgoReturns合作,推出首个去中心化跨链系统交易区块链。该合作旨在公共区块链上传递交易信号,并允许用户在不同的区块链上同时交易同一代币,简化了整个交易过程。[2022/10/12 10:32:19]
(3)采用了urllib同步请求 + 范围内随机时长程序休眠。减少了被风控的概率。但是也降低了爬虫的效率。
后面再研究用scrapy或异步请求
同步:请求发送后,需要接受到返回的消息后,才进行下一次发送。异步:不需要等接收到返回的消息。
全球做市商IMC加入Pyth network:金色财经报道,全球做市商IMC今天宣布已加入预言机解决方案Pyth network。IMC将在网络上发布实时加密货币价格数据,并随着网络的不断扩大,寻求扩展到其他资产类别。目前有超过65家出版商为Pyth提供加密资产、股票、外汇和金属的第一方质量数据。(prnewswire)[2022/7/21 2:29:22]
找到需要爬取合约的具体地址:
第一页
http://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8第二页
https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=2第三页
预言机解决方案Pyth Network正式发布中文白皮书:3月12日,据官方消息, 预言机解决方案Pyth Network今日正式发布中文白皮书。这份白皮书介绍了一种全新的预言机设计模型,并且第一次正式描述了Pyth Network的愿景:建立一个自我可持续的、去中心化的预言机网络。Pyth带来了一个全新商业模型,一个以质押为基础的激励系统,让数据发布者、数据使用者,以及其他的网络参与者能够共同获利。
在过去的几个月时间里,Pyth Network已经持续免费地向全世界释放了高保真的数据,消除了数据中间商,降低了数据成本,提升了数据质量,并开放给所有人。通过应用链上陪审团系统HUMAN Protocol,Pyth能够无需信任地验证其所提供的的价格数据和置信区间与真实的链下数据相比是否准确。[2022/3/12 13:52:56]
https://bscscan.com/txs?a=0xbd3bd95529e0784ad973fd14928eedf3678cfad8&p=3....
Virtu Financial将向PythNetwork提供股票、外汇、期货和加密货币市场数据:大型高频交易做市商VirtuFinancial将向Solana生态预言机解决方案PythNetwork提供股票、外汇、期货和加密货币市场数据。[2021/6/25 0:05:12]
可以知道 p = ?就代表页数。
然后F12 点击“网络”,刷新界面,查看网络请求信息。
主要查看,网页上显示的数据,是哪个文件响应的。以什么方式响应的,请求方法是什么
如何验证呢,就是找一个txn_hash在响应的数据里面按ctrl + f去搜索,搜索到了说明肯定是这个文件返回的。
查看响应的数据,是html的格式。在python里面,处理html数据,个人常用的是xpath(当然,如果更擅长BeautifulSoup也可以)
在python里面安装相关的依赖
pip install lxml ‐i https://pypi.douban.com/simple同时在浏览器上安装xpath插件,它能更好的帮助我们获到网页中元素的位置
XPath Helper - Chrome 网上应用店 (google.com)
然后就可以通过插件去定位了,返回的结果是list
**注:**浏览器看到的网页都是浏览器帮我们渲染好的。存在在浏览器中能定位到数据,但是代码中取不到值的情况,这时候可以通过鼠标右键-查看网页源码,然后搜索实现
然后就是利用redis,对txn_hash去重,去重的原因是防止一条数据被爬到了多次
最后一个需要考虑的问题:交易是在增量了,也就是说,当前第二页的数据,很可能过会就到第三页去了。对此我的策略是不管页数的变动。一直往下爬。全量爬完了,再从第一页爬新增加的交易。直到遇到第一次全量爬取的txn_hash
最后就是存入到数据库了。这个没啥好说的。
以上就可以拿到转账列表中的txn_hash,后面还要写一个爬虫深入列表里面,通过txn_hash去爬取详情页面的信息。这个就下个文章再说,代码还没写完。
今天就写到这里。拜拜ヾ(?ω?`)o
来源:Bress
作者:撒酒狂歌
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。