站长资源网络编程
关于爬虫和反爬虫的简略方案分享
前言
爬虫和反爬虫日益成为每家公司的标配系统。
爬虫在情报获取、虚假流量、动态定价、恶意攻击、薅羊毛等方面都能起到很关键的作用,所以每家公司都或多或少的需要开发一些爬虫程序,业界在这方面的成熟的方案也非常多。
有矛就有盾,每家公司也相应的需要反爬虫系统来达到数据保护、系统稳定性保障、竞争优势保持的目的。
像安全与黑客从来都是相辅相成一样。
爬虫与反爬虫也是在双方程序员的斗智斗勇的过程不断发展和成长的。
抓包
抓包的目的: 分析出协议请求使用的数据,请求接口,参数等等。
常用的抓包分析工具:
- Fiddler
- Charles
- Sniffer
- Wireshark
具体使用策略,请自行百度,Google。
抓数据
使用 HttpClient 模拟请求
充分了解 HttpClient 的特性,使用方式等。
HttpClient4.5官方教程
user_agent 的使用
使用 user_agent 的伪装和轮换模拟不同的客户端。
建立UserAgent池,可以通过以下地址获取一定量的UserAgent的信息。
http://www.fynas.com/ua/search"htmlcode">CONNECT refused by proxy而使用socks代理则无此问题。这就不得不要了解http代理和socks代理的区别。
socks代理
待续
设置访问频率
即便是使用了代理ip,那么对目标接口的访问也要有一定的频率控制,
防止目标服务方检测出频率过快,进行拒绝服务的响应。
Cookie 池失效和更新策略
获取目标站点Cookie有效时间,
将对应账号和Cookie存入Redis,
起一个任务对账号Cookie进行定时检测,
接近失效时间,进行提前更新Cookie信息,
具体Cookie 池Cookie的失效和更新策略需要根据自己业务进行适当调整。
防止目标方的分析
- 确保同一账号的请求使用的是同一个UserAgent、同一个代理ip。
- 注意访问频率
- 其他
总而言之,就是模拟正常的客户端发起对服务方的请求,伪装的越像正常的客户端,服务方越难分析出。
只要是服务方能够提供服务,一般情况下都可以进行数据的爬取,
只不过是难易程度不同。
如果出于商业目的,要考虑付出的成本到底是否合适。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。
下一篇:新手程序员编程必不可少的工具