google工具栏居然没有chrome版的,简直是一个讽剌

在firefox里使用google工具栏,要占据一行,比较浪费空间,想在chrome里安装一个,需要时使用。

然而使用chrome进入google工具栏页面,点下载,居然出来了一个警示框:

Google工具栏要求Firefox为2.0版或更高版本。

您是否要下载最新版本的Firefox?

取消  确定

太令人无语了,自己出的浏览器,还不支持自己出的工具栏。

是在fefora12 linux 下的,不知道windows版的是不是也不支持

一点花边:

使用五笔输入法打google,出来的词是“恶业胃”

goog 是“恶业”   le是“胃” 很恶搞

phpmyadmin报错原因及解决方法:无法在发生错误时创建会话,请检查 PHP 或网站服务器日志,并正确配置 PHP 安装。

两天前登录phpmyadmin突然出错了,

"无法在发生错误时创建会话,请检查 PHP 或网站服务器日志,并正确配置 PHP 安装。"

很奇怪前些天一直好好的,怎么就突然不能用了,把phpmyadmin文件拷到另外站点的目录里,运行,居然好了。但原来的目录就是不行。

用过后,就把另外站点里的phpmyadmin删掉了,原来目录里还是坏的,有时间再找原因解决。

今天,又要使用修改一些东西,原来目录里的还是坏的,重新从官方下载最新的3.3.1版上传,还是坏的;传到另外目录里也一样。看来这个问题总是要解决的了。

google了一下,有人说是“打开您的php.ini配置文件session.save_path = “某个路径”检查该项是否配置正确”,大致明白了,估计是phpmyadmin需要写session文件,但session目录没有相应权限所以报错“...发生错误时创建会话...”,错误信息里说明是session相关的,只是这个错误信息太简略了,不容易轻易看明白。

到服务器上修改php.ini,以前没有配置session.save_path的。于是C盘建一个session目录c:\tempfolder\phpsession,给phpmyadmin站点的web用户赋读写权限,在php.ini里加上一条

session.save_path="c:\tempfolder\phpsession"

运行iisreset,进入 phpmyadmin站点,终于看到了久违的登录页面了。

分析一下原因,应该是这样的:

windows版的php应该默认使用系统临时文件目录,可能因为别的什么原因,之前有对临时文件目录的权限丢失了,所以就报上面错误

前几天拷到别的站点目录里,而这个站点的iis用户对windows临时文件有读写权限,所以可以正常使用phpmyadmin;今天,那个站点的iis用户也没权限了,就不行了。

至于网上有人说的,要赋everyone读写权限(甚至还有说赋“完全控制”的权限),就没必要了,只给相应的iis用户赋读写权限就可以;否则还是完全隐患。

顺便说一点,我的phpmyadmin没有放到自己电脑上,远程连接mysql服务器,而是直接把phpmyadmin放到mysql服务器上,这样正是为了安全其见。mysql的root用户只允许localhost连接,不允许从别的主机上连接。其它用户也是只允许在相应主机上访问。

关于google PR:PR0 - Google's PageRank 0 Penalty

http://pr.efactory.de/e-pr0.shtml

PR0 - Google's PageRank 0 Penalty

By the end of 2001, the Google search engine introduced a new kind of penalty for websites that use questionable search engine optimization tactics: A PageRank of 0. In search engine optimization forums it is called PR0 and this term shall also be used here. Characteristically for PR0 is that all or at least a lot of pages of a website show a PageRank of 0 in the Google Toolbar, even if they do have high quality inbound links. Those pages are not completely removed from the index but they are always at the end of search results and, thus, they are hardly to be found.

A PageRank of 0 does not always mean a penalty. Sometimes, websites which seam to be penalized simply lack inbound links with an sufficiently high PageRank. But if pages of a website which have formerly been placed well in search results, suddenly show the dreaded white PageRank bar, and if there have not been any substantial changes regarding the inbound links of that website, this means - according to the prevailing opinion - certainly a penalty by Google.

We can do nothing but speculate about the causes for PR0 because Google representatives rarely publish new information on Google's algorithms. But, non the less, we want to give a theoretical approach for the way PR0 may work because of its serious effects on search engine optimization.

The Background of PR0

Spam has always been one of the biggest problems that search engines had to deal with. When spam is detected by search engines, the usual proceeding is the banishment of those pages, websites, domains or even IP addresses from the index. But, removing websites manually from the index always means a large assignment of personnel. This causes costs and definitely runs contrary to Google's scalability goals. So, it appears to be necessary to filter spam automatically.

Filtering spam automatically carries the risk of penalizing innocent webmasters and, hence, the filters have to react rather sensibly on potential spam. But then, a lot of spam can pass the filters and some additional measures may be necessary. In order to filter spam effectively, it might be useful to take a look at links.

That Google uses link analysis in order to detect spam has been confirmed more or less clearly in WebmasterWorld's Google News Forum by a Google employee who posts as "GoogleGuy". Over and over again, he advises webmasters to avoid "linking to bad neighbourhoods". In the following, we want to specify the "linking to bad neighbourhoods" and, to become more precisely, we want to discuss how an identification of spam can be realized by the analysis of link structures. In particular, it shall be shown how entire networks of spam pages, which may even be located on a lot of different domains, can be detected.

BadRank as the Opposite of PageRank

The theoretical approach for PR0 as it is presented here was initially brought up by Raph Levien (www.advogato.org/person/raph). We want to introduce a technique that - just like PageRank - analyzes link structures, but, that unlike PageRank does not determine the general importance of a web page but rather measures its negative characteristics. For the sake of simplicity this technique shall be called "BadRank".

BadRank is in priciple based on "linking to bad neighbourhoods". If one page links to another page with a high BadRank, the first page gets a high BadRank itself through this link. The similarities to PageRank are obvious. The difference is that BadRank is not based on the evaluation of inbound links of a web page but on its outbound links. In this sense, BadRank represents a reversion of PageRank. In a direct adaptation of the PageRank algorithm, BadRank would be given by the following formula:

BR(A) = E(A) (1-d) + d (BR(T1)/C(T1) + ... + BR(Tn)/C(Tn))

where

BR(A) is the BadRank of page A,
BR(Ti) is the BadRank of pages Ti which are outbound links of page A,
C(Ti) is here the number of inbound links of page Ti and
d is the again necessary damping factor.

In the previously discussed modifications of the PageRank algorithm, E(A) represented the special evaluation of certain web pages. Regarding the BadRank algorithm, this value reflects if a page was detected by a spam filter or not. Without the value E(A), the BadRank algorithm would be useless because it was nothing but another analysis of link structures which would not take any further criteria into account.

By means of the BadRank algorithm, first of all, spam pages can be evaluated. A filter assigns a numeric value E(A) to them, which can, for example, be based on the degree of spamming or maybe even better on their PageRank. Thereby, again, the sum of all E(A) has to equal the total number of web pages. In the course of an iterative computation, BadRank is not only transfered to pages which link to spam pages. In fact, BadRank is able to identify regions of the web where spam tends to occur relatively often, just as PageRank identifies regions of the web which are of general importance.

Of course, BadRank and PageRank have significant differences, especially, because of using outbound and inbound links, respectively. Our example shows a simple, hierarchically structured website that reflects common link structures pretty well. Each page links to every page which is on a higher hierachical level and on its branch of the website's tree structure. Each page links to pages which are arranged hierarchically directly below them and, additionally, pages on the same branch and the same hierarchical level link to each other.

The following table shows the distribution of inbound and outbound links for the hierarchical levels of such a site.

Level inbound Links outbound Links
0 6 2
1 4 4
2 2 3

As to be expected, regarding inbound links, a hierarchical gradation from the index page downwards takes place. In contrast, we find the highest number of outbound links on the website's mid-level. We can see similar results, when we add another level of pages to our website while the above described linking rules stay the same.

Level inbound Links outbound Links
0 14 2
1 8 4
2 4 5
3 2 4

Again, there is a concentration of outbound links on the website's mid-level. But most of all, the outbound links are much more evenly distributed than the inbound links.

If we assign a value of 100 to the index page's E(A) in our original example, while all other values E equal 1 and if the damping factor d is 0.85, we get the following BadRank values:

Page BadRank
A 22.39
B/C 17.39
D/E/F/G 12.21

First of all, we see that the BadRank distributes from the index page among all other pages of the website. The combination of PageRank and BadRank will be discussed in detail below, but, no matter how the combination will be realized, it is obvious that both can neutralize each other very well. After all, we can assume that also the page's PageRank decreases, the lower the hierarchy level is, so that a PR0 can easily be achieved for all pages.

If we now assume that the hierarchically inferior page G links to a page X with a constant BadRank BR(X)=10, whereby the link from page G is the only inbound link for page X, and if all values E for our example website equal 1, we get, at a damping factor d of 0.85, the following values:

Page BadRank
A 4.82
B 7.50
C 14.50
D 4.22
E 4.22
F 11.22
G 17.18

In this case, we see that the distribution of the BadRank is less homogeneous than in the first scenario. Non the less, a distribution of BadRank among all pages of the website takes place. Indeed, the relatively low BadRank of the index page A is remarkable. It could be a problem to neutralize its PageRank which should be higher compared to the rest of the pages. This effect is not really desirable but it reflects the experiences of numerous webmasters. Quite often, we can see the phenomenom that all pages except for the index page of a website show a PR0 in the Google Toolbar, whereby the index page often has a Toolbar PageRank between 2 and 4. Therefore, we can probably assume that this special variant of PR0 is not caused by the detection of the according website by a spam filter, but the site rather received a penalty for "linking to bad neighbourhoods". Indeed, it is also possible that this variant of PR0 occurs when only hierarchical inferior pages of a website get trapped in a spam filter.

The Combination of PageRank and BadRank to PR0

If we assume that BadRank exists in the form presented here, there is now the question in which way BadRank and PageRank can be combined, in order to penalize as much spammers as possible while at the same time penalizing as few innocent webmasters as possible.

Intuitively, implementing BadRank directly in the actual PageRank computations seems to make sense. For instance, it is possible to calculate BadRank first and, then, divide a page's PageRank through its BadRank each time in the course of the iterative calculation of PageRank. This would have the advantage, that a page with a high BadRank could pass on just a little PageRank or none at all to the pages it links to. After all, one can argue that if one page links to a suspect page, all the other links on that page may also be suspect.

Indeed, such a direct connection between PageRank and BadRank is very risky. Most of all, the actual influence of BadRank on PageRank cannot be estimated in advance. It is to be considered that we would create a lot of pages which cannot pass on PageRank to the pages they link to. In fact, these pages are dangling links, and as it has been discussed in the section on outbound links, it is absolutely necessary to avoid dangling links while computing PageRank.

So, it would be advisable to have separate iterative calculations for PageRank and BadRank. Combining them afterwards can, for instance, be based on simple arithmetical operations. In principle, a subtraction would have the desirable consequence that relatively small BadRank values can hardly have a large influence on relatively high PageRank values. But, there would certainly be a problem to achieve PR0 for a large number of pages by using the subtraction. We would rather see a PageRank devaluation for many pages.

Achieving the effects that we know as PR0 seems easier to be realized by dividing PageRank through BadRank. But this would imply that BadRank receives an extremely high importance. However, since the average BadRank equals 1, a big part of BadRank values is smaller than 1 and, so, a normalization is necessary. Probably, normalizing and scaling BadRank to values between 0 and 1 so that "good" pages have values close to 1, and "bad" pages have values close to 0 and, subsequently, multiplying these values with PageRank would supply the best results.

A very effective and easy to realize alternative would probably be a simple stepped evaluation of PageRank and BadRank. It would be reasonable that if BadRank exceeds a certain value it will always lead to a PR0. The same could happen when the relation of PageRank to BadRank is below a certain value. Additionally, it would make sense that if BadRank and/or the relation of BadRank to PageRank is below a certain value, BadRank takes no influence at all.

Only if none of these cases occurs, an actual combination of PageRank and BadRank - for instance by dividing PageRank through BadRank - would be necessary. In this way, all unwanted effects could be avoided.

A Critical View on BadRank and PR0

How Google would realize the combination of PageRank and BadRank is of rather minor importance. Indeed, a separate computation and a subsequent combination of both has the consequence that it may not be possible to see the actual effect of a high BadRank by looking at the Toolbar. If a page has a high PageRank in the original sense, the influence of its BadRank can be negligible. But if another page links to it, this could have quite serious consequences.

An even bigger problem is the direct reversion of the PageRank algorithm as we have presented it here: Just as an additional inbound for one page can do nothing but increasing this page's PageRank, an additional outbound link can only increase its BadRank. This is because of the addition of BadRank values in the BadRank formula. So, it does not matter how many "good" outbound links a page has - one link to a spam page can be enough to lead to a PR0.

Indeed, this problem may appear in exceptional cases only. By our direct reversion of the PageRank algorithm, the BadRank of a page is divided by its inbound links and single links to pages with high BadRank transfer only a part of that BadRank in each case. Google's Matt Cutts' remark on this issue is: "If someone accidentally does a link to a bad site, that may not hurt them, but if they do twenty, that's a problem." (searchenginewatch.com/sereport/02/11-searchking.html)

However, as long as all links are weighted uniformly within the BadRank computation, there is another problem. If two pages differ widely in PageRank and both have a link to the same page with a high BadRank, this may lead to the page with the higher PageRank suffering far less from the transferred BadRank than the page with the low PageRank. We have to hope that Google knows how to deal with such problems. Nevertheless it shall be noted that, regarding the procedure presented here, outbound links can do nothing but harm.

Of course, all statements regarding how PR0 works are pure speculation. But in principle, the analysis of link structures similarly to the PageRank technique should be the way how only Google understands to deal with spam.

PageRank and Google are trademarks of Google Inc., Mountain View CA, USA. PageRank is protected by US Patent 6,285,999.

The content of this document may be reproduced on the web provided that a copyright notice is included and that there is a straight HTML hyperlink to the corresponding page at pr.efactory.de in direct context.

Urlaub Ägypten

(c)2002/2003 eFactory GmbH & Co. KG Internet-Agentur - written by Markus Sobek

百度耍流氓的前世今生

徽剑:百度耍流氓的前世今生(2006年的文章,很有历史了)
http://blog.sina.com.cn/s/blog_49332a8301000898.html

一、流氓的百度
二、百度的流氓是怎么来的
三、不可不说的深圳移动时代
四、百度的推而广之
五、今年5月份的传言
六、百度凭什么打进日本市场

一、流氓的百度

百度名声现在很臭,这是大家公认的。今年百度可谓流年不利,先是出现闪电裁员事件,然后又跟天极网闹翻了,最近更是抖了个新的邮件门事件,(呵呵,这是今年第二个邮件门了)

看报道:“7月10日,百度采取了让业界哗然的闪电裁员—4个小时内,除运营总监外,企业软件事业部(ES)部门的30名员工被遣散干净。对此,百度的官 方理由是——该部门长期亏损、且与百度目前主要提供的搜索引擎服务不相吻合。值得注意的是,裁撤部门全部员工,除有一人自动辞职外,其余员工均保留工作, 得到调岗机会,唯有陈飞(化名)一人被解除劳动协议,而他是其中唯一拥有百度期权的员工,辞退解聘协议中规定股票自离职日未发放部分失效。陈飞愤慨的表 示:“百度公司的目的即在于通过这样的非正常调整扣减这部分股票期权支出,节省成本”。陈飞很快向劳动仲裁部门提起诉讼,很快几个月后,仲裁结果为—W可 恢复百度工作,直到其与百度的合同期满(2007年12日);此外,百度还必须支付W被裁员当天到现在的工资,并加付25%。”

其实这里很搞笑的是,本来是百度自家事情,居然把搜狐扯上了。由于搜狐度在本次事件中报道比较多,百度就称搜狐蓄意中伤,搜狐则回击称其转移视线,没过几天搜狐又把新浪给拉了出来,指出其消息来源新浪。反正是不亦乐乎。

过了不久,百度又跟国内最大的IT行业门户网站天极网干上了。起因是天极指责百度百度恶意操纵搜索结果:“百度上将“天极下载”、“天极软件下载”、“天 极软件站”、“天极软件网”等关键词指向其收购的天空下载网站的错误就存在多处,而且,百度上也存在多处将其他下载站点流量转移到其旗下天空下载的情况, 很显然百度对天极谴责的回应是以偏概全,转移视线,欺骗网友。”(备注:天空软件园不久前刚被百度收购)
天极的声明还说:“作为一家声称“立足于自主掌握并提供互联网核心技术的技术型公司”,难道就可以这样简单地蒙骗公众吗?”

想详细了解可以看天极上面对这件事的报道专题。
http://net.chinabyte.com/baiduwc/
大家注意这个链接地址,前面是天极的二级域名,后面居然是baidu--wc, 哈哈。

就像天极事件那样,一直以来,百度被指责操纵搜索结果,百度自己始终矢口否认,但是到了年底发生的事情让百度始料未及。
从12月7日开始,在互联网上流传出百度市场总监王东抄送给李彦宏和梁冬的机密邮件,王东在邮件中请示,是否应该将新浪科技在百度的SEO排名效果提前, 因为“在过去一段时间新浪科技频道对百度的支持还是有目共睹的,因此中午我约请该频道负责的编辑郭开森吃饭”,并且特别提到,“季度末频道负责人(如郭) 的考核一部分也是以PV为主的,因此恰当时候给郭的支持,会比一般情况下的作用大”。最后还说明了为什么搜狐的排名差,是因为搜狐对百度的负面一直不断。 最后附上了数据证明。谁想到该机密邮件竟然不小心被泄露,令李彦宏和梁冬大失脸面。对于王东的处理,业界盛传王东被迫辞职。过了几天,百度新闻发言人徐继 业证实了这一消息,徐继业说:“王东确实已经离职,就在这两天。”不过对于是受邮件连累之说,徐继业表示否认,他说:“王东完全是出于个人的发展。”

如果说天极网事件,还是一种表象而已,那么这次王东邮件门就是彻底的暴露了百度的内幕了。

李彦宏说百度不做恶,看到这些新闻的人都笑了。

二、百度的流氓是怎么来的

不管今天的百度如何,实事上,百度从刚起步的时候,李彦宏还是一个很纯洁的人,有文章说,李彦宏喜欢种菜,一个喜欢宁静生活的人无论如何都不是一个喜欢商业欺诈的人。

但是李彦宏不幸进入了商界,人在商场,身不由己。常在商场混,哪能不骗人。

李彦宏创办百度后,市场的总是做不开。百度公司是在1999年底注册的,2000年百度就推出了搜索服务,但是一直没有什么大的影响,直到2001年,情况发生了变化。

有传言说,2001年中,百度的一个副总开始与政府有关部门接触,举报有关Google中“有害信息”的问题,当时百度接触的政府人员级别比较低,有关官 员也认为Google在国内影响不大,所以也只是根据百度的举报抽查过用Google服务的网易一两次,并没有什么大的动作。

2002年百度开始变得疯狂,有传言如下:“从公司层面,百度分三类整理了Google含有所谓政治问题、宗教问题、情色问题的材料,每一类材料多达数百页A4纸,定期向有关部门提交,百度并提供数据证明中国网民经常在查找这些东西。”

实际情况中,人们在使用Google时,只有很小的情况下是在搜索这些“不良信息”,而百度提供的数据却说中国网民有多达近10个百分点的比例在经常搜索 “不良信息”。百度组织一些员工和兼职进行信函举报,即以用户身份给有关部门写信投诉Google“危害社会”,“危害中国互联网”,“危害青少年身心健 康”。这样的数据给政府有关部门造成了很大的影响,觉得Google对中国网民危害巨大。

2002年9月,中国5600万网民的不幸,历时一年多的阴谋策划后,百度的计划得逞了,有关部门封杀了Google.。有评论指出:“虽然这一事件前前 后后网上传言众多,但可以肯定的是,没有搜索引擎公司百度的幕后操作,就不会有封杀全球最伟大的搜索引擎Google.Google假如进入中国市场,对 百度的打击是毁灭性的,但一个精心策划的阴谋使得百度公司不仅逃过一劫,还能长治久安,并且当年就通过向本来可能是Google客户的Sohu、 Sina、网易、中国雅虎卖自己的搜索引擎服务获利近两百万美元。”

这就是百度流氓的开端。

三、不可不说的深圳移动时代

光把google拉下马,还不能解决问题,不是google一走,百度就来钱的,百度要想赚钱,还得去找大量的客户,这些客户那里来?

在2003年和2004年,普通网民还没有真正意识到搜索的重要性,但是随著搜索引擎影响的扩大,出现了很多所谓的客户还是不认,百度在2000年就成立了深圳分公司,但是成立不久,由于经营入不敷出,很快就关门了。

2001年百度开始推出代理制度,并于2002年10月召开了百度竞价排名业务全国代理商大会。在这一段时间,一直到2004年初,百度的搜索基本都是很 干净的正常运作,先是模仿google等推出右侧的付费广告,发现这样做广告的不多,因为一般网民都不大会点右侧的广告链接,百度于是便在左侧的搜索结果 里面,加入了广告,这样一来,普通网民无法识别到底是自然搜索结果还是广告了,一来网民的搜索结果被误导,举例来说,网民在百度里面搜索“癌症”这个关键 词,出现在第一页基本都是广告,只要你给钱就可以占有这些广告位,这样什么江湖游医都可以通过这里来吸引到网民的注意力;二来给付费广告主带来了大量不必 要的开支,如果是在左侧的广告,一般没有需要的网民都不会去点,而放在自然搜索结果里一起,就会出现大量网民无意中点击了这些链接,由于这些广告是按照点 击效果付费的,也就是一旦链接被点击,广告主就要掏钱,这样广告主就白白地花了广告费。

就算是这样,百度的业绩在2004年还是不怎么样,这时,一个改变百度历史情况出现了,深圳有一家公司叫移动时代,一开始是做网站的,后来代理了百度、 3721等的服务推广,由于在代理百度业务的时候,效果不是很明显,业务难以开展,于是向百度的高层建议,采取后来被广大站长深恶痛绝的“敲诈营销模式” 的主意。

所谓的敲诈营销模式很简单,就是先利用百度搜索数据来调查分析网站数据,然后对搜索结果进行干预,有这么几点创新:
1,权重的人为控制:本来理论上的权重是判断一个网站或网页重要性的指标,在google里面,权重就是pr值,PR值高的就会排在搜索结果前面,PR值 小的则反之。在google里面,这个PR值是根据网站的反向链接等数据按照一定标准自然计算的。而百度的创新是在自然计算的结果上加入一个人为控制参 数,只要百度调整这个参数就可以决定你网站在百度搜索结果的前后顺序了。这次导致王东辞职的邮件门事件,就是要人为干预新浪和搜狐的这个控制参数,达到打 击搜狐,抬高新浪的目的。

2,搜索结果的选择过滤:这点上面就目前看来,是百度的独创,前面调整权重是一个整体的变化,这个这是一种精确的变化,方法很简单,举例来说,你网站通过 百度有十个关键词可以搜索到你的网站,但是这十个关键词肯定有冷热之分,也就是有的关键词来的访客比较多,有的关键词由于比较冷门,搜索的人少,所以过来 的访客也少。百度有一个什么本领呢?就是他可以有选择的过滤你的关键词,可以限制某个网站不会出现被某个关键词的结果里面。这样一来可以怎么做呢?百度不 封你的整个网站,因为他也要考虑搜索内容的丰富性,但是他把你网站的几个热门关键词给屏蔽掉。举例来说,某家企业的网站,百度可以把你公司名字给屏蔽掉, 让别人无法搜索你公司的名字而来到你的网站。这种做法对于很多不懂行的企业客户来说,很容易上当,百度先把你网站的名字在搜索结果里面给屏蔽了,然后他的 销售人员跑过去跟企业联系:“你们的公司(网站)在百度里面搜索不到,这样客户找不到你,花点钱就可以出现了。”

3,按地区分拣搜索目标客户:这也是百度的一大创新,就是百度的后台系统将各种网站按地区不断分捡,然后将这些名录提供给他的销售人员或代理商,同时提供的还有这些网站的关键词参数。

有了这三大创新,推广的成绩自然是不错,所以进入2005年百度业绩不断上涨。

四、百度的推而广之

这三大创举都是深圳移动时代的“宝贵建议”,深圳移动时代就靠这几点,成为了百度代理的老大,其代理业务占到了百度营业额的四分之一。于是百度就在全国推广移动时代经验,这样一来全国的小网站可就倒了大霉了。要么你交钱,要么搜索不到你的网站。

全国的受害者恐怕不计其数,这里就不多说,详情请看本人的文章《百度,我是流氓我怕谁》

而且百度还拓展了方法,表现在对于公关拓展,百度现在很牛,哪家网站如果批评了,等着他屏蔽你的网站或者降低你的所谓权重吧,在百度邮件门里面,我们可以 看到,连新浪和搜狐这样的网站都会被他们修理,小点的网站就不必说了,天极就是因为要捍卫自己的利益,结果他的很多地方子站全部被百度屏蔽,“看你跟我百 度牛”。笔者有一朋友,仅仅在文章中批评了百度,其博客居然从百度搜索结果里面消失了,百度连个人都不会放过。

五、今年5月份的传言

尽管采取了“敲诈营销”,但是由于百度的股价抬的太高,一开始由于对google追捧,百度受到影响,被抬的超乎想象,严重脱离正常范围。要知道,在股市 上面,如果没有业绩支撑,长的再高的股票也会跌下来,就像中华网,高的时候涨到近百美元,现在差不多接近一美元了。当百度IPO时,其发行数量只有404 万股,占其总股本的比重仅12%。如此之小的发行规模无疑会产生稀缺效应,让投资者形成“供不应求”的感觉,从而认同百度的高股价,这是百度上市当天能够 从发行价27美元暴涨至120美元以上收盘的原因。在股价的压力之下,百度管理团队只有拼命挖掘潜力,可是中国市场不像美国那么大,再怎么拼命“敲诈”也 轧不出像google那样的业绩。

高盛分析师安东尼"诺托认为,百度的股价至少被高估了60%,其目标价位应为27美元,而他对百度股价最乐观的估计也只在45美元。按照百度公布的数 据,2005年上半年,营业收入为1360万美元,净利润为180万美元,依百度上市首日收盘价算,其市盈率已达2450.8倍,这意味着按照百度目前的 盈利水平,美国股民需要2450年才能收回自己的成本。如此漫长的等待没有任何一个美国人能够奉陪,除非投资人认为百度会在短短的几年内创造奇迹。于是李 彦宏开始把眼光放到了代理身上。因为代理的利润空间太大。

在早期,由于百度为了鼓动代理的积极性,给出的代理条件都非常优厚,一级代理是5折,后来在个别项目上面做了些许调整,但是基本上没有太大变化。

百度逐渐在上海、广州等具有客户规模的地区收回代理权。去年百度就已撤光在上海的渠道,新建了上海销售分公司以全面推行直销模式。百度的代理商都很弱,是 在百度扶持下发展起来的,百度甩掉他们也很正常。百度公司首席财务官王湛生表示,第三方经销商目前仍然是百度最主要的营收来源。过去几个季度,随着百度大 力发展直销,来自经销商的营收在百度销售额中所占比例有所下滑,但仍然超过50%。

8月2日,百度宣布中止与核心代理商精合信达的合作关系。七天之前,百度收回了北京真龙广告的代理资格。随着这两家公司代理资格的被撤,百度将北京地区的 销售体系完全抓到了自己手里——代理商们说,这意味着每天100万的收入。为了提前中止合同,据悉百度还向两家代理商支付了不菲的赔偿金。

就在百度在全国收编代理的时候,百度也在把眼光锁定了深圳移动时代,目前百度的东莞分公司据说有300多人,而按照东莞的市场,只需要100多人就足够,有观察家认为,百度这是为将来控制深圳市场培养力量。

当年百度在上市之初就想以数千万元的价格收购深圳移动时代,但是这边没有答应。现在百度在全国都有明显动作,唯独在深圳没有,这里传言有两种。

其一,深圳移动时代份额太大,百度为了稳定收入,不敢轻举妄动。
其二,在深圳移动时代内部传言,百度原本是准备今年下半年收回深圳移动时代的代理权,今年5月,百度COO朱洪波和李夫人马东敏同时来到深圳,分别会见了 深圳移动时代负责人,但是当他们二人回到北京后,收回代理的事情就变得延迟了,据说要等到明年。究竟是为什么推迟?明明是要来收编的,这里很有意思,没有 在百度公司里面担任要职的李夫人来深圳会见移动时代负责人做什么?

据深圳移动时代公司财务等人员透露出来的消息,深圳移动时代负责人在年中购买过1辆宝马5的进口汽车,但是一直没有见其使用过,同时公司负责人从公司账户上提出过巨额资金。

六、百度凭什么打进日本市场

百度现在想拓展日本,但是不知道百度如何在日本耍流氓,敲诈政策在日本是无法行的通的。同时百度技术和创意上远远落后google
这一段我没有兴趣写了,大家都明白的道理,不用我废话了。只想送给李彦宏一句话:“企业追求利润的最大化没任何问题,但是也应该承担社会责任”。无论如何 追求利润最大化,都应该承担社会责任,像比尔盖茨这样的企业经营者对社会公益事业进行捐助,就是承担社会责任的一种方式,同时这种做法还会增加企业的公信 度。

如何阅读“网页搜索帮助-站长FAQ”/百度baidu SEO 如何针对百度优化

http://www.baidu.com/search/guide.html

这是百度给站长的“真言”,主要包括以下几点,具体内容就不再粘贴,有兴趣者可以到上面网址查看,不加链接,自己复制到浏览器地址栏里打开

  • 网页收录问题
  • 网页排序问题
  • 商业客户相关的问题
  • 给站长的建站建议
  • 互联网论坛收录开放协议
  • 其他

对这个FAQ,您一定要会阅读,知道怎么读,这里面很重要的一点就是要首先明白百度的前世今生。

百度虽然不是中国公司,但它对中国文化/中国文化中最xx的一面是非常精通的,也说是说,您还得了解怎么真正的读懂中国历史。

(有位同学打断了,质问“百度不是中国公司?”,关于这一点,了解一下百度的前世今生您就明白了,这里恕我不多讲了;顺便做个广告,path8.net里有相关的一篇,可以参阅一下)

下面举一个例子说明一下。

里面有好几处“以下的说法是错误的和毫无根据的” 这都是非常重要的,可谓“国之大计,死生之前,存亡之门,不可以不察也”,这里的部分,一般来说就一定要倒着读。

比如下面几条:

A. 参与了百度推广但未续费,会从百度搜索结果中消失
B. 参与了其他搜索引擎的广告项目,会从百度搜索结果中消失
C. 与百度旗下网站产生了竞争,会从百度搜索结果中消失
D. 从百度获得的流量太大,会从百度搜索结果中消失

如果你不了解如何读中国历史,那您永远是不会懂中国历史;同样如果您也很可能不明白如何百度,以及百度的潜规则。

当然,一定不要走极端,认为百度在这里说的,都要反着读,都要反其道而行之,那只能悲痛的告诉您,您将真的被百度惩罚。

流氓的百度:我是流氓我怕谁?(百度的前世今生)

注:本文章转自网上他家之言,本人无意损坏百度名誉!但里里面的部分文章也是值得百度的员工一看的!

一、得意洋洋的李彦宏

先看报道:
“北京时间2005年8月5日晚,百度无人入睡。从夜里23时40分开始,3个小时里,百度人经历了人生里最激动人心的时刻,在纳斯达克指数的显示屏 上,他们持有百度原始股,涨幅达到了疯狂的353.85%,魔术般地成为每股122.54美元,一夜之间产生了9位亿万富翁、30位千万富翁和400位百 万富翁,创造了21世纪的财富神话,全世界为之震惊。

看看百度的历史:

“百度,2000年1月创立于北京中关村,是全球最大的中文搜索引擎。  2000年1月1日,公司创始人李彦宏、徐勇携120万美元风险投资,从美 国硅谷回国,创建了百度公司。创立之初,百度就将自己的目标定位于打造中国人自己的中文搜索引擎,并愿为此目标不懈的努力奋斗。
2000年5月,百度首次为门户网站——硅谷动力提供搜索技术服务,之后迅速占领中国搜索引擎市场,成为最主要的搜索技术提供商。2001年8月,发 布Baidu。com搜索引擎Beta版,从后台服务转向独立提供搜索服务,并且在中国首创了竞价排名商业模式,2001年10月22日正式发布 Baidu搜索引擎。
2005年8月5日,百度在美国纳斯达克上市,成为2005年全球资本市场上最为引人注目的上市公司,百度由此进入一个崭新的发展阶段。“

“为“中国Google”的百度,在成功迈向纳市红地毯的一瞬间,光环毕升、集万千宠爱于一身,屡刷新概念股之新高,150美金/股、狂涨了 354%、200位百万富豪,随后几个月百度股价回落。但在同时,百度也遭遇了一系列的麻烦:百度下吧因为内容涉及违法、色情而被关闭,MP3搜索下载遭 受到上海步升以及环球、华纳等五大唱片的诉讼,最后以修改链接方式做出版权声明而告一段落。”

“10月27日,百度公司发布了2005年第三季度财报。尽管从财报来看,百度这一季度的业绩并不难看:较去年同期有成倍增长,营收达1100万美元,利润为110万美元,但这依然没有达到华尔街的预期。当日,百度的股价应声而落,跌幅高达15%以上。

恰好在一周前,Google也公布了2005年第三季度财报。上面所显示的数字几乎令投资者们欣喜若狂:净利润为3。81亿美元,同比增长6倍,这对于一个巨无霸的企业而言,取得这样的成绩当然无异于一个神话。
尴尬的产生,也许就在于这种明显的对比。曾一度被“中国的Google”概念笼罩的百度,曾因为与Google相似而一跃成为纳斯达克的网络新贵,如 今,它又是因为与Google的表现相差甚远,而逐渐遭到投资人的冷眼。成也Google,败也Google,在两者天壤之别的业绩面前,百度的尴尬姿态 显得尤为突兀。”

看了这一系列的报道,您会做何感想?

至少在我的印象里面,还没有见过争议这么大的IT企业。

二、名声越来越臭

最近一年以来到了各大网站,只要有IT讨论版面的,基本上都可以发现骂百度的贴子,而且有越来越多的趋势。甚至出现了反百度联盟网站。好像中国没有第二家互联网公司能够担当如此“殊荣”。为什么?

1、使用中国特色的方式压制google

著名的搜索引擎研究机构Searchenginewatch.com就曾经报道过:“百度在2002年末,组织大批人员向有关部门写信举报 Google中含有的“有害信息”,迫使Google中文服务中断长达一个月之久,而百度乘机抢夺了Google在中国的客户如网易、新浪等,从中获利近 120万美元。”

同样在国内也有消息报道:“新浪网搜索引擎在2003年9月放弃了原来由百度提供的技术,大胆采用Google的技术后,Google为新浪提供的服 务也变得不稳定。据新浪网传出的内部消息,新浪使用Google的技术后,被禁止的“敏感词汇”的检索量出现异常上升,从而造成Google数据的不稳 定,对访问日志的分析表明,异常检索量是有组织的团体行为,也同样怀疑与百度有关。”

这种情况的出现,导致Google创始人在圣荷塞的一次私人聚会上对参加聚会的华裔人士斥责中国搜索公司百度总裁李彦宏(Robin li)是“yellow dog”(卑鄙小人)。

2、商业化过头的百度

李彦宏带着他的百度很快就发现,百度的营收并不足以支撑其奇高的股价。于是,百度开始采取“不择手段”“有奶便是娘的政策“只要你给钱,百度就把你的 网站排在搜索结果的前面,钱越多位置越靠前。这种完全商业化的行为导致搜索结果存在严重的隐患,比如说我们搜索“北京律师“,在google的结果里面出 现的左侧第一个是北京律师协会,紧跟着的几个也是比较出名的北京地方法律服务网站,再看百度,第一页的结果居然全是律师个人的网站。而且根据本人对百度的 了解,百度在客户购买关键词的时候,完全不需要出示任何相关证明,只要你给钱,就可以排到前面去,所以这里面有没有假律师也很难说。

Google就采取了把广告放在右侧专门的固定位置, 雅虎给搜索结果中的广告打上明显的特殊标识,但是这种做法,显然不如竞价排名广告能获得更漂亮的业绩。

根据艾瑞市场咨询提供的数据,在中国搜索引擎用户不满意的因素中,对搜索结果排序不满的比例达到43%,已经显示出信任危机。

一位网民举出例子,比如在百度上搜索“癌症”这个关键词时,搜索结果的前10条都是竞价排名广告,一直到下一页才出来真正和病情相关的搜索结果。

自然搜索结果和广告混在一起,这是所谓“点击欺诈”最常见的现象,它的产生和搜索公司提供的竞价排名广告有着直接关系。这种广告允许广告商凭付费的多 少获取不同的网页位置,也就是说付出的广告费更多,就可以在搜索结果中拿到更靠前的位置,而参与的广告商越多,自然就可以占据更多的搜索版面。

但网民们却因此为信息的真假大伤脑筋。比如本来想通过搜索了解某件产品的质量优劣,结果排在前面的信息可能大多是销售该产品渠道商的名字。一位搜索业 内的人士更指出其中的欺诈嫌疑,“通过购买竞价排名广告,广告主还可能把和产品相关的“好话”都排在前面,这可能对消费者形成误导。”

三、百度的搜索技术真的先进吗

1、李彦宏总是吹嘘他的技术在美国获得专利,他发明了搜索技术,我们不防来看看,百度总裁李彦宏在接受Forbes采访时扬言Google始创于1998年的Pagerank技术专利为其持有,Google抄袭了百度的Pagerank技术等。
这里是笔者在网上找到的关于google和百度专利对比介绍文字说明:

Li Yanhong的美国专利号:5,920,859。专利提交日期为1997年2月5日,批准日期为1999年7月6日。
Lawrence Page(即Larry Page)于1998年1月9日提交,于2001年9月4日被批准,美国专利号6,285,999。

“两个专利申请的区别在于,他们谈的根本就是两回事。要解决的问题和实施方法都不一样,虽然研究对象是一样的,都是链接。

李彦宏的超链分析技术要解决的是文件与搜索关键词的相关性。李彦宏提出的方法是,除了文件本身对关键词的引用外,还需要考虑反向链接中的关键词。具体 来说,一个文件被索引进数据库的时候,会连同指向这个文件的超链接,以及每个超链接当中使用的锚文字(链接文字),一同记录在案。而搜索词也会建立一个数 据库,每个词连同含有这个词的超链接,以及这些超链接所指向的文件一同被记录在案。当一个关键词被搜索的时候,含有以关键词为链接文字的反向链接数目最多 的那个文件或网页,将被作为最相关的结果排在前面。这是基本思路,当然还有其他变量考虑进去。比如说搜索字符串含有几个词的时候,每一个词都是搜索矢量的 一个维度。

而Google的PR专利显然是专注在已经应用了超链分析之后还不能解决的问题。在Google的专利申请中,明确提到即使在考虑了指向文件的链接及 链接锚文字之后,搜索引擎还有重要问题需要解决,那就是来自不同文件的链接有不同的权重值。你不能指望来自白宫网站的链接和非洲某小镇上一个学生的个人网 站上的一个链接,投票值相同。而Google PageRank就是衡量网页重要性的一个方法。指向一个网页的链接越多,而这些链接本身的权重越高,那么这个被指向的网页的重要性及PageRank就 越高。Google的专利申请当中给出了具体怎样计算这一重要性指标,他们取名为网页级别。网页级别的计算需要进行多个循环的替代计算,才能得到近似于最 终结果的PR值。”
笔者还在网上找到一个笑话:“李彦宏说上世纪90年代中期,他在澳大利亚讲超链分析,有两个斯坦福的学 生坐在台下,后来这两个学生做出了Google。不过我一直没太搞清楚这事儿的先后次序,到底是李彦宏的启蒙在前,还是Page和Brin的实践在前。终 于梁冬的书中找到了答案,这个会议的时间是1998年4月,地点是澳大利亚的布里斯班。如果没有搞错,这应该就是第七届国际WWW大会。不过这时 候,Google的前身BackRub已经在斯坦福大学的网络上运行了两年多。
Larry Page和Sergey Brin著名的论文,《一种大规模超文本Web搜索引擎的分析》就是在这次大会上提交的,作为对PageRank技术最早的公开阐述,这个论文后来被大量引用。

我有点喷饭了。

2、百度的搜索技术到底如何先进?

其实从上面的介绍我们就可以看到:Google是按照网页级别(PageRank)来收录的,网站有一定的网页级别,Google会快速收录的,而没 有网页级别的网站,Google则坚决不去收录。Baidu则采用的是来者不拒的原则,百度则不管三七二十一上来就抓整个站,对于网站内容不做分析就快速 收录,公认的其爬虫数量非常庞大,如果你的ISP服务商对你有流量限制。那么,你就倒大霉了,你的流量全部被占掉了。

说白了,百度的搜索方法就是大量派出爬虫,大量收集尽可能快和尽可能多的搜集页面,这样一来大家就会发现,百度好像更新特别快,可是这样是以牺牲有效 性为代价。大家可以做一个测试,随机抽取若干词语分别在google和百度里面搜索看看,还是那句老话:不怕不识货,就怕货比货。特别是在搜索专业性的资 料的时候,百度的搜索基本上是胡扯。

百度甚至不遵守robots规则,笔者曾经有一个网站,这个网站内容有些敏感,主要是跟朋友们一起交流的,所以就不想被搜索引擎收录,按照惯例在根目 录下放了robots文件,明确规定拒绝收录全站,可是过了一过多月居然还在百度搜索里面发现了这个网站的全部内容,更搞笑的是这个网站只有100多页, 百度居然显示收录2万多页。

网上有评论指出:“中国的网民也出现了很奇怪的现象:大量的新网民和菜鸟新手喜欢用百度搜索,因为百度往往搜索到很多别处搜索不到的页面,但内容的匹 配度则令人质疑,而专业人士和老鸟则更喜欢用Google,但在普通的低层次的网民心中却不错,这些大量的普通网民给百度带来了大量流量。”

我们来看看百度是如何吹嘘的:

“自从2000年公司成立以来的六年中,百度一直专注于互联网搜索引擎技术的研发,在高性能搜索引擎网络系统架构、搜索引擎相关算法(网页抓取、内容 索引、查询检索、超链分析、相关性评估以及作弊网页识别)、中文信息处理(分词、命名实体识别、拼音转换和查询纠错等)、网页文本挖掘、基于社区的搜索引 擎、以及搜索引擎商业应用等方面,勇于创新实践,积累形成了一系列具有自主知识产权的核心技术,确保了百度在中文搜索领域的激烈竞争中一直处于领先地 位。”

不明白一点,“处于领先地位”的百度准确率怎么会那么低呢,这里随便举两个词:“猫”“鸟”,大家搜索一下,看看百度与google有什么不同。

四、强盗的市场营销

1、不掏钱就封你没商量

网上有这么一条消息:“2005年年中,百度官方宣布对许多作弊站点进行集中整顿,清除了一批通过技术手段或软件恶意欺骗搜索引擎、欺骗用户,把本身 无内容或内容含量不高的垃圾网站排除在自身搜索结果之外,给予封杀,随后网友“踏雪无痕”成立“反百度联盟”,通过签名、揭发的方式,收集百度对待站长和 网友不公正的证据,促进监督百度公司走向公正,如今该站点签名总数已有6675条,基本上都是遭遇封杀的个人站长在控诉。反百度联盟的观点是:百度借清理 作弊之名封杀个人站点是虚,借机威胁个人站点买单竞关键字广告才是真。”

这一点笔者以及周围的朋友都有亲身体验,好好的从百度搜索过来的访问全都没有了,过不了几天,百度的代理商电话就打过来了。如果不做“搜索关键字服务 “,这些搜索过来的访问全都没有了,更为恶劣的是居然在搜索拒绝购买“搜索关键字服务“的网站时,把竞争对手的网站结果列出来。

有网友这样反映:“由于我的小站在GOOGLE、BAIDU、等几个搜索引擎上同时推广,看不到每个搜索引擎的效果到底怎么样,所以想到先把 BAIDU停掉几天试试,礼拜5联系BAIDU客服,让她从后台把我的全部关键字停掉,当时BAIDU客服设定是下午 4点开始停止推广,但到晚上我下班回家搜索几个常见的关键字时,发现找遍了前10页都没看到我的站,以前这几个关键字我的站自然排名都在第一页。更为糟糕 的是搜索我自己网站的名字都搜不到了,只能通过搜索我的玉米 才能搜出我的站。”

2、收多少钱宰你没商量

百度自2006年6月1日起,大幅提高竞价排名的底价,升幅由几倍到十几倍,完全不是根据客户竞价了,百度美其名说根据商业价值来定,而没有任何标 准、根据,就将竞价底价随意提高十几倍,这就是明火执仗对已预付了钱的客户无异于抢钱的行为,也是没有信用的表现。以前一个关键词的起价统一是0.3元, 但调整后,关键词分了档次,有的起价达到了几元钱,有的价格保持在0.3元左右,还有部分关键词的价格有所下降,但总体来看,涨的多降的少,所谓商业价 值,是指市场的需求大小,有的关键字只有一家使用,也被涨价6、7倍以上,而且是强加的。有的关键字的起价远远超过了第三名第二名的现有价格,请问这样的 价格是如何制定的?既然是竞价,应该是使用者之间的竞价,百度这样做说的好听点叫店大欺客,骗子说的难听点实在是太毒辣,太无耻。

五、百度的危机

1、百度冒充民族企业

在对外宣传上,百度张口闭口都说自己是所谓的“民族企业”,比Google等国外公司“更懂中文”,并打着所谓“爱国”的旗号,说反百度就是反对中国的民族产业,支持Google就是卖国云云。然而事实是:

百度公司注册于英属开曼群岛,
百度的创始人李彦宏持有美国绿卡,
百度启动的资金是美国的风险投资,
现在美资在百度中占有51%以上的份额,
百度在中国注册全资子公司的目的是为了规避中国关于外资不能进入新闻广告等领域法规。
因此,百度准确的说应该是一家由华人创办的、专注于在华业务的美资搜索引擎技术公司。

明白吧,这是一家美国的公司,跟google没有什么区别。

百度这一回没有理由为自己辩护了吧。

2)在搜索违法内容上面,百度远远超过google

据我所知,百度目前对色情违法信息进行了过滤技术当服务器接收到用户提交的搜索词后,先将搜索词和“过滤词汇表”进行匹配对比;一旦匹配成功,服务器 即返回“您输入的关键词可能涉及不符合相关法律法规的内容”,然后结束搜索。从技术上讲,这种“过滤词汇表”实际上有很大缺陷和漏洞,例如在百度搜索 “**”确不让搜索,但是搜索“‘**’”(带引号)即可返回搜索记录,通常会远远多于Google搜索出的记录。推而广之,所有百度通过“过滤词汇表” 屏蔽的词汇,大部分只要加上个引号就全都可以搜索,另外,将多个屏蔽关键字组合在一起也可以搜索出结果,更可笑的是,在百度不可以搜索“色情”,但却可以 搜索出“色情图片”70万条记录,“色情电影”51万条记录,“色情小说”23万条记录,“色情网站”79万条记录,可见这种屏蔽的方法实在是用来忽悠媒 体的,实际作用非常有限。
现在最大的提供“有害信息”的就是百度了。

3、百度以违法为赢利点

众所周知,在国外法律健全的国家,一个网站如果搞免费音乐下载,肯定会因为版权纠纷而面临法律的制裁,最终不得不关闭。

根据ALEXA的统计显示,百度的MP3搜索流量巨大,成为仅次于常规网页搜索的第二大搜索,占其中流量的16%。因此也不难理解,百度宁可打官司也不能不做这种侵犯版权的搜索。

然而,百度还是害怕被国外的唱片公司指控。因为百度是在美国上市的的企业,百度知道如果陷入这种法律纠纷会给自己带来什么后果,因此,百度就自作聪明 地在MP3搜索上做了一个小伎俩,使得只有中国地用户才能正常使用百度的音乐搜索。你的IP地址变成国外的IP地址,这时候再上百度搜索一下,你会发现搜 索不到任何歌曲。百度就是这样干的。

国内国外两种面孔。这就是百度。

一个提供违法内容的网站,您觉得它有前途吗?

我是不相信的。

linux下apache启动出错:Permission denied: make_sock: could not bind to address

之前自己编译安装的apache/php/mysql——什么,连mysql也自己编译?很正常,学习嘛—— 当时是好好的,今天启动却出错了,直接运行./httpd也一样:

[feng@localhost bin]$ ./apachectl start
httpd: Could not reliably determine the server's fully qualified domain name, using localhost.localdomain for ServerName
(13)Permission denied: make_sock: could not bind to address [::]:80
(13)Permission denied: make_sock: could not bind to address 0.0.0.0:80
no listening sockets available, shutting down
Unable to open logs

同时seLinux报警,这两行是主要的错误

(13)Permission denied: make_sock: could not bind to address [::]:80
(13)Permission denied: make_sock: could not bind to address 0.0.0.0:80
毫无疑问,是权限拒绝,但之前为什么是好的呢

突然发现当前运行的账号是普通账号,而非管理员,这难怪,普通账号默认无权启动监听80端口的,su一下,输入密码,很顺利的正常启动了,当然这一行错误还是有的:

httpd: Could not reliably determine the server's fully qualified domain name, using localhost.localdomain for ServerName

,这无所谓,没有绑定域名,反正是本机运行的。

突然一个印度访问,不明白

今天从量子统计里看到一个印度的访问者,访问了两个页面,

来源都是google搜索,第一次访问

http://www.google.co.in/search?hl=en&source=hp&q=path8.net&btnG=Google%20Search&meta=&aq=f&aqi=&aql=&oq=&gs_rfai=&rlz=1W1GPCK_en

是google印度搜索我的域名 path8.net,打开了两次首页,然后使用google翻译,翻译我的首页,也就是第二个页面,来源页是

http://translate.google.co.in/translate?hl=en&sl=zh-CN&u=http://www.path8.net/&ei=LymvS4aKAsW6rAf82PWmAQ&sa=X&oi=translate&ct=result&resnum=1&ved=0CAgQ7gEwAA&prev=/search%3Fq%3Dpath8.net%26hl%3Den%26sa%3DG%26rlz%3D1W1GPCK_en

访问页面为

http://translate.googleusercontent.com/translate_c?hl=en&sl=zh-CN&u=http://www.path8.net/tn/&prev=/search%3Fq%3Dpath8.net%26hl%3Den%26sa%3DG%26rlz%3D1W1GPCK_en&rurl=translate.google.co.in&usg=ALkJrhi50880axcrNjZadGHGnnXi4mwsxg

但很奇怪,这个访问的IP地址还是上面访客的地址,不是知道是什么原因,该访客ip地址是115.240.168.22,怀疑可能是google印度的搜索服务器,但是不知为什么量子统计还能获取的这个访问,难道google服务器还打开javascript

其中第一个访问,也就是在印度google搜索path8.net的第二条结果,是http://www.robtex.com/dns/path8.net.html,是英文的网页,鸟语不好,没有看明白是什么,好像是一个查询域名相关信息的东西,上面有powered by google的字样,页面右边有这样的一块:

robtex
swiss
army
knife
internet
tool
robtex swiss army knife internet tool

这个页面有多个标签,第一个summer,内容如下

IP and Domain Information Sources

Source Date Information
rbls 2010-03-28 12:01:23 Blacklistings
now 2010-03-28 12:01:23 This information page's creation date
semrush 2010-03-28 12:01:23 SEO, Keywords
sedo 2010-03-28 12:01:23 Domain Sale Information
alexa 2010-03-28 12:01:23 Description, ranking and other stats
wot 2010-03-28 12:01:23 Reputation
dns 2010-03-27 22:28:13 Visible DNS Information

Thumbnails powered by Thumbshots [link:http://www.thumbshots.com/]

(后面的是一个链接,是我取消并把链接地址列于后的)

另有一个标签backlist 内容如下:

md5:0015332b8a437d758d45c490e0fe9352:path8.net
md5:92e40627d06427fe7c621ab44e63b32b:page99

难道这个域名什么时候列入黑名单,还是什么

bt(Backtrack)安装教程/登录用户名密码

这里有硬盘安装,U盘安装两种安装方式,推荐U盘安装。因为U盘安装不改变硬盘文件,避免操作失误造成硬盘文件丢失的后悔局面;而且U盘携带方便,这点好处不言而喻。

一.硬盘安装

1.xp vista单系统下硬盘安装:

把光盘里的Boot 和BT3两个文件夹放到任意盘符的根目录下,运行xp_vista_grub4dos.exe(BT3硬盘启动引导)按提示完成安装。

2.win7.xp双系统下安装:

1.首先把xp安装在主引导盘,后安装wing7.

2.用bcdautofix v1.0.5(vista win7 启动修复工具)修复多系统启动。

3.用EasyBCD1.7.2(启动菜单编辑)编辑自定义的启动顺序,启动菜单名,并添加NeoGrub启动项目,具体操作见软件教程。

4.修改bt3 bt4下boots/menu.lst。

BT3 bt4测试版下boots/menu.lst

color black/cyan yellow/cyan
timeout=1
default=0

title BT4
find --set-root /boot/vmlinuz
kernel /boot/vmlinuz root=/dev/ram0 vga=791
initrd /boot/initrd.gz ramdisk_size=128000
boot

title Restart
reboot

title Shutdown
halt

bt4-pre-final版本下boots/menu.lst:

1)把bt4下boot文件夹里的文件复制到引导盘(c)boot文件夹里。

2)把BT4下boot/grub/menu.lst复制替换掉引导盘(C:\NST\menu.lst) EasyBCD1.7.2创建的menu.lst

二.U盘安装

建议将U盘格式化成FAT32,把光盘里的Boot 和BT3两个文件夹放到U盘的根目录,打开BOOT文件夹双击运行" bootinst.bat "批处理文件。U盘里就会多出4个文件." isolinux.boot" "isolinux.cfg" "isolinux.bin " "syslinux.cfg"
安装方法2.

1.输入CMD, 然后回车,进入命令行模式,输入 cd boot 回车 进入boots文件夹,输入 bootinst.bat 回车,就会开始制作BT3

此操作将会重写U盘的MBR(即引导区),如果此分区是您的一个硬盘上的分区,那您的Windows系统将会启动不了,请小心,按X键中止操作,按其他任意键继续制作。

因为是在U盘上运行操作的,所以不用理会,按任意键继续制作。
制作完成,设置引导记录成功,按任意键退出制作。到此为止,此U盘就可以引导系统进去bt3了
bt4-pre-final版本U盘安装:

所需工具软件:

U盘格式化工具(HPUSBFW)
GRUBDOS内置菜单编辑批处理
grubinst_gui.exe安装程序
1.用U盘格式化工具(HPUSBFW)格式化u盘。

2.制作内置菜单grub:把BT4下boot/grub/menu.lst复制到GRUBDOS内置菜单编辑批处理文件夹里,运行GRUBDOS内置菜单编辑批处理,选择 [5] 以外部menu.lst设置内置菜单(勿大于4KB)。把menu.lst设置导入grub引导菜单。

3.制作grldr启动U盘:将编辑好的grldr放入grubinst_gui.exe(grub4dos启动安装程序)的文件夹和U盘根目录。运行grub4dos启动安装程序(grubinst_gui.exe),选中磁盘为U盘,注意空间大小,千万别选错磁盘。点选不保存原来MBR,不引导原来MBR,输出详细信息,和启动时不搜索软盘。可以先测试一下,点击安装完成.

4.将编辑好的grldr和BT4.Iiso文件解压到U盘根目录。大功搞成。

-----------------------------
bt4 (Backtrack)的linux登录用户名密码没有在提示文件里出现,笔者就曾因为不知道登录的用户名密码而非常郁闷

它的登录用户是root

密码为toor

其实用户名是linux根用户root,密码就是把root倒过来写,很好记。

support me

Pages: 1 2 3 Next