如何看待38号美系性能控对知乎大v们云回复 以及38的教徒们

一、“横看成岭侧成峰,远近高低各不同。不识庐山真面目,只缘身在此山中。”不同的身份会带来不同的立场,不同的立场会带来不同的视角,不同的视角从而带来不同的看法。要想看清庐山真面目,各位看官首先要做的是努力抛开一切立场,回归事情本身。

二、高考作文要求不少于800字的作文不是写1000 字就能得高分,回应质疑和抨击的文章不是写得越长就能有说服力。不逐一针对反对方观点立论进而铺开举证阐明事实,而是避重就轻宣泄情绪不知所云地洋洋洒洒几千字,就如同伟人曾经说过的那句话一样。不过出现这种情况有两种可能,一种是反对方观点强词夺理漏洞百出破绽明显不值一驳,另一种是自身已然是理亏词穷陷入夫妻吵架状态。至于是哪一种,各位看官自己判断。

三、立足大数据进行统计分析得出数据支持观点是一种比较科学的方法,但是如果分析的样本本身就存在失真的可能性,那么得出的数据不具备很强得说服力。倒不如租一台车亲测油耗全程录像得出结果来得更有说服力。

四、练习册习题的答案叫“参考答案”,超市买的零食的价格叫“建议零售价”。任何人测试的油耗都具有特殊性,对另一个来说只能作参考,所以辩论油耗高低其实本质上是一件没有太大意义的事情。油耗这么高(低)?可以不信,那你就自己开出个低(高)的来,就像建议零售价1元的矿泉水你可以卖5块。

五、乱贴标签并且一棍子打死的行为最可耻。对没错,就是可耻。矛盾是普遍存在的,但是矛盾也是有特殊性的,否认矛盾的特殊性就是变相否定马克思,政治不正确,所以麻烦在XX粉丝、XX教徒前面加上“某些”这个词,谢谢。

如何利用python 爬取知乎上面的数据

||#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Author: Administrator

# @Date: 2015-10-31 15:45:27

# @Last Modified by: Administrator

# @Last Modified time: 2015-11-23 16:57:31

import requests

import sys

import json

import re

reload(sys)

#获取到匹配字符的字符串

def find(pattern,test):

finder = re.search(pattern, test)

start = finder.start()

end = finder.end()

return test[start:end-1]

cookies = {

'_ga':'GA1.2.10sdfsdfsdf', '_za':'8d570b05-b0b1-4c96-a441-faddff34',

'q_c1':'23ddd234234',

'__utmt':'1', '__utma':'51854390.109883802f8.1417518721.1447917637.144c7922009.4',

'__utmv':'51854340.1d200-1|2=registration_date=2028=1^3=entry_date=201330318=1'}

headers = {'user-agent':

'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.111 Safari/537.36',

'referer':'http://www.zhihu.com/question/following',

'host':'www.zhihu.com','Origin':'http://www.zhihu.com',

'Content-Type':'application/x-www-form-urlencoded; charset=UTF-8',

'Connection':'keep-alive','X-Requested-With':'XMLHttpRequest','Content-Length':'81',

'Accept-Encoding':'gzip,deflate','Accept-Language':'zh-CN,zh;q=0.8','Connection':'keep-alive'

}

#多次访问之后,其实一加载时加载20个问题,具体参数传输就是offset,以20递增

dicc = {"offset":60}

n=20

b=0

# 与爬取图片相同的是,往下拉的时候也会发送http请求返回json数据,但是不同的是,像模拟登录首页不同的是除了

# 发送form表单的那些东西后,知乎是拒绝了我的请求了,刚开始以为是headers上的拦截,往headers添加浏览器

# 访问是的headers那些信息添加上,发现还是拒绝访问。

#想了一下,应该是cookie原因。这个加载的请求和模拟登录首页不同

#所以补上其他的cookies信息,再次请求,请求成功。

for x in xrange(20,460,20):

n = n+20

b = b+20

dicc['offset'] = x

#传输需要json串,和python的字典是有区别的,需要转换

formdata['params'] = json.dumps(dicc)

# print json.dumps(dicc)

# print dicc

circle = requests.post("http://www.zhihu.com

cookies=cookies,data=formdata,headers=headers)

#response内容 其实爬过一次之后就大同小异了。 都是

#问题返回的json串格式

# {"r":0,

# "msg": ["

\n

# \n

205K<\/div>\n

#

\u6d4f\u89c8<\/div>\n

# <\/span>\n