如何看待38号美系性能控对知乎大v们云回复 以及38的教徒们
一、“横看成岭侧成峰,远近高低各不同。不识庐山真面目,只缘身在此山中。”不同的身份会带来不同的立场,不同的立场会带来不同的视角,不同的视角从而带来不同的看法。要想看清庐山真面目,各位看官首先要做的是努力抛开一切立场,回归事情本身。
二、高考作文要求不少于800字的作文不是写1000 字就能得高分,回应质疑和抨击的文章不是写得越长就能有说服力。不逐一针对反对方观点立论进而铺开举证阐明事实,而是避重就轻宣泄情绪不知所云地洋洋洒洒几千字,就如同伟人曾经说过的那句话一样。不过出现这种情况有两种可能,一种是反对方观点强词夺理漏洞百出破绽明显不值一驳,另一种是自身已然是理亏词穷陷入夫妻吵架状态。至于是哪一种,各位看官自己判断。
三、立足大数据进行统计分析得出数据支持观点是一种比较科学的方法,但是如果分析的样本本身就存在失真的可能性,那么得出的数据不具备很强得说服力。倒不如租一台车亲测油耗全程录像得出结果来得更有说服力。
四、练习册习题的答案叫“参考答案”,超市买的零食的价格叫“建议零售价”。任何人测试的油耗都具有特殊性,对另一个来说只能作参考,所以辩论油耗高低其实本质上是一件没有太大意义的事情。油耗这么高(低)?可以不信,那你就自己开出个低(高)的来,就像建议零售价1元的矿泉水你可以卖5块。
五、乱贴标签并且一棍子打死的行为最可耻。对没错,就是可耻。矛盾是普遍存在的,但是矛盾也是有特殊性的,否认矛盾的特殊性就是变相否定马克思,政治不正确,所以麻烦在XX粉丝、XX教徒前面加上“某些”这个词,谢谢。
如何利用python 爬取知乎上面的数据
||#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Author: Administrator
# @Date: 2015-10-31 15:45:27
# @Last Modified by: Administrator
# @Last Modified time: 2015-11-23 16:57:31
import requests
import sys
import json
import re
reload(sys)
#获取到匹配字符的字符串
def find(pattern,test):
finder = re.search(pattern, test)
start = finder.start()
end = finder.end()
return test[start:end-1]
cookies = {
'_ga':'GA1.2.10sdfsdfsdf', '_za':'8d570b05-b0b1-4c96-a441-faddff34',
'q_c1':'23ddd234234',
'__utmt':'1', '__utma':'51854390.109883802f8.1417518721.1447917637.144c7922009.4',
'__utmv':'51854340.1d200-1|2=registration_date=2028=1^3=entry_date=201330318=1'}
headers = {'user-agent':
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.111 Safari/537.36',
'referer':'http://www.zhihu.com/question/following',
'host':'www.zhihu.com','Origin':'http://www.zhihu.com',
'Content-Type':'application/x-www-form-urlencoded; charset=UTF-8',
'Connection':'keep-alive','X-Requested-With':'XMLHttpRequest','Content-Length':'81',
'Accept-Encoding':'gzip,deflate','Accept-Language':'zh-CN,zh;q=0.8','Connection':'keep-alive'
}
#多次访问之后,其实一加载时加载20个问题,具体参数传输就是offset,以20递增
dicc = {"offset":60}
n=20
b=0
# 与爬取图片相同的是,往下拉的时候也会发送http请求返回json数据,但是不同的是,像模拟登录首页不同的是除了
# 发送form表单的那些东西后,知乎是拒绝了我的请求了,刚开始以为是headers上的拦截,往headers添加浏览器
# 访问是的headers那些信息添加上,发现还是拒绝访问。
#想了一下,应该是cookie原因。这个加载的请求和模拟登录首页不同
#所以补上其他的cookies信息,再次请求,请求成功。
for x in xrange(20,460,20):
n = n+20
b = b+20
dicc['offset'] = x
#传输需要json串,和python的字典是有区别的,需要转换
formdata['params'] = json.dumps(dicc)
# print json.dumps(dicc)
# print dicc
circle = requests.post("http://www.zhihu.com
cookies=cookies,data=formdata,headers=headers)
#response内容 其实爬过一次之后就大同小异了。 都是
#问题返回的json串格式
# {"r":0,
# "msg": ["