本博客正式支持HTTPS/SSL浏览(powered by Let's Encrypt)

今天起,本博客已经正式启用https/ssl,页面上链接已经更新为https链接。

使用的是Let's Encrypt提供的免费ssl证书服务。

Let's Encrypt服务优势

免费、支持多域名、国际化,并且服务商是Linux基金会成员,可信度高。

目前主流浏览器都支持该证书的,参看官方的“证书兼容列表”

负面影响评估

以GA上最近1万(准确数字是10523)次会话作样本做评估,GA只计算“人”的访问,而不计蜘蛛,这更符合现实。(可以认定,主流的搜索引擎蜘蛛应该是支持该证书的,这个影响按理可以忽略。)

按网友的经验IE6是不支持的,经过虚拟机下windows 2003里IE6测试证实了这一点(手上没带IE6的xp)。样本会话中共计10次IE6,9次IE7;由此IE6占比不到0.1%即使带上IE7,也不到0.2%. 因此旧版IE可以忽略。

Safari 4.0以下无访问。

 

WordPress 3.0.3 发布,大概是最密集的一次更新了

刚才登录wordpress后台,又一个更新,原来是WordPress 3.0.3 发布了,不久前WordPress 3.0.2 才发布,好像刚一周时间就升级了。

这么密集的软件更新,一般说都是修正安全漏洞的,看升级日志,果然是,e文不好,看得不甚明白,于是google一个,至少已经有好中文几个网站发布了这则消息,开源中国社区上的消息:

WordPress 3.0.3 是一个安全问题更新版本,修复了远程发布接口的bug,该接口可能在某些情况下允许发布者随意的发布、修改和删除文章。这个问题仅仅对于启用远程发布接口时才会存在。

可从这里下载该版本或者通过面板的更新功能进行自动升级。

from  http://www.oschina.net/news/13656/wordpress-3-0-3

wp启用了远程更新,当然是一定要升级的,尽管还没有中文版出来,但这样的安全更新,语言包应该没有多少改变的。

wordpress访问记录里有这样的请求,不知是不是攻击型请求:/archives/+$(j(c))+

查看wordpress访问日志,是通过插件记录到mysql数据库里的,查阅比较方便(实现方法参看这里

无意中发现里面有这样的一个访问,请求页面url很怪

/archives/+$(j(c))+

该请求的user-agent是空的,httpreferer也是空的,在整个记录表里查询,还很多,一百多条,列部分于文后。

不知这样的请求是否是利用wordpress的某个漏洞而对wordpress的攻击,浏览器打开这样的地址,显示404页面,没其它异常情况 ,不知有没有哪位高手可以解答一下。

id     referer     url     time     ip     client     cookie
188834           /tn/archives/+$(j(c))+     2010-08-02 19:23:32     113.108.81.48
189859           /tn/archives/+$(j(c))+     2010-08-03 08:10:35     183.60.2.14
190683           /tn/archives/+$(j(c))+     2010-08-03 22:08:43     113.108.81.48
190835           /tn/archives/+$(j(c))+     2010-08-03 23:30:31     113.108.81.48
191457           /tn/archives/+$(j(c))+     2010-08-04 08:34:47     121.14.94.23
192659           /tn/archives/+$(j(c))+     2010-08-05 06:53:53     119.147.7.231
193517           /tn/archives/+$(j(c))+     2010-08-05 19:31:49     183.60.2.14
195123           /tn/archives/+$(j(c))+     2010-08-06 20:16:23     113.108.91.94
195185           /tn/archives/+$(j(c))+     2010-08-06 21:17:56     113.108.91.95
196435           /tn/archives/+$(j(c))+     2010-08-07 18:55:59     113.108.91.94
197866           /tn/archives/+$(j(c))+     2010-08-08 20:42:39     113.108.81.39
197893           /tn/archives/+$(j(c))+     2010-08-08 20:58:55     183.60.2.14
199258           /tn/archives/+$(j(c))+     2010-08-09 17:55:33     183.60.2.17
199272           /tn/archives/+$(j(c))+     2010-08-09 18:06:24     113.108.91.91
199659           /tn/archives/+$(j(c))+     2010-08-09 23:49:02     183.60.2.14
200895           /tn/archives/+$(j(c))+     2010-08-10 18:24:20     183.60.2.14
201412           /tn/archives/+$(j(c))+     2010-08-11 00:32:11     119.147.11.115
201878           /tn/archives/+$(j(c))+     2010-08-11 08:23:52     183.60.2.17
202709           /tn/archives/+$(j(c))+     2010-08-11 18:58:22     113.108.91.94
203309           /tn/archives/+$(j(c))+     2010-08-12 02:01:41     113.108.81.39
204605           /tn/archives/+$(j(c))+     2010-08-12 19:57:20     183.60.2.15
204655           /tn/archives/+$(j(c))+     2010-08-12 20:21:02     183.60.2.17
204667           /tn/archives/+$(j(c))+     2010-08-12 20:26:13     183.60.2.17
205119           /tn/archives/+$(j(c))+     2010-08-13 01:56:03     183.60.2.15
205352           /tn/archives/+$(j(c))+     2010-08-13 04:58:47     113.108.91.95
206956           /tn/archives/+$(j(c))+     2010-08-14 06:14:02     113.108.81.39
207067           /tn/archives/+$(j(c))+     2010-08-14 07:07:35     113.108.81.39
207676           /tn/archives/+$(j(c))+     2010-08-14 17:43:52     183.60.2.14
208101           /tn/archives/+$(j(c))+     2010-08-15 00:36:21     113.108.91.94
209681           /tn/archives/+$(j(c))+     2010-08-16 00:57:53     183.60.2.15

user agent 中 PostRank/2.0 (postrank.com; 1 subscribers)是什么

在网站日志中有user agent里发现PostRank/2.0 (postrank.com; 1 subscribers)的记录,经搜索得知PostRank的简介,录于下

PostRank简介:

PostRank的前身是AideRss,是一个知名的RSS分析工具,通过给每篇文章计算Rank值来评价文章的重要性,对订阅的RSS Feed进行过滤,并输出一个新的RSS,有效的解决信息过量的问题。

它对于文章Rank值得重新计算,主要包括:

——文章被点击的次数

——文章的评论数

——文章反向链接的次数

——文章在Twitter等被讨论(引用)的次数

User Agent里Mediapartners-Google是什么浏览器/客户端

在网站访问日志里,看到Mediapartners-Google,搜索一下,原来是Google Adsense的漫游器

Mediapartners-Google

Mediapartners-Google 抓取网页中的文字内容,用于 Google Adsense 分析关键词。只有投放了 Google Adsense 网页才会被 Mediapartners-Google 探测器爬取。

Adsbot-Google 抓取网页中的文字内容,用于为 Google AdWords 提供参考。只有 Google AdWords  目标网页才会被 Adsbot-Google 探测器爬取。

Mediapartners-Google与Googlebot并不相同,google Adsense与网页搜索使用两套不同的的蜘蛛机器人

Googlebot 一般称为 Google 机器人或 Google 探测器或Google蜘蛛。

Google会 派遣不同的 Googlebot 对网页内容进行获取。主要包括:

Googlebot 抓取网页中的文字内容。获取的内容保管于 Google 网页搜索和新闻搜索的数据库。一般谈的 Google 机器人主要指这个。

Googlebot-Mobile 抓取网页中的文字内容,用于 Google 手机搜索。

Googlebot-Image 抓取网页内的图片内容,保管入 Google 图片搜索数据库。

wordpress启用新主题zBench

wordpress启用新主题zBench,花了老长时间,总体比较满意。

下班后在公司找主题,因为以前用的INove使用的人太多,的确是款很经典的主题,wp升级到3.0后,就换用自带主题twentyten,然而实在不够美观,于是找新主题。在公司里,在一个测试用的wp后台里共看到52页的主题,一页一页翻到28页,找到了几个感觉比较好一点的,试过不好的直接就删掉了。只留少数几个,然后再行比较,明显相对较差的,也删除,基本也锁定在zBench。回来后,对几个主题再试用一下,还是这个好点,于是到这个正式的wp安装。要调侧边栏,GA配置等好几项,忙了老久,快一点,才算是到一段落,其它还有些功能,没有完整检测是否正常。不过大问题应该没有。现在已经01:03了,非常困,睡觉了。

让wordpress首页只显示某个栏目

让wordpress首页只显示某个栏目

因为有些东西比较私人,所以想到了这个功能

只需在index.php模板中将

<?php if (have_posts()) : ?>

<?php while (have_posts()) : the_post(); ?>

改为

<?php if ( have_posts() ) : query_posts($query_string .’&cat=1′); while ( have_posts() ) : the_post(); ?>

cat=1     1为  你想显示的栏目ID,   栏目ID可以在编辑栏目时的URL中看到,

多个栏目则为

<?php if ( have_posts() ) : query_posts($query_string .’&cat=1,5′); while ( have_posts() ) : the_post(); ?>

这样就可以了。

转于:http://blog.yayuan.org/215

--------------------------

在wordpress3.0版本里的自带主题里好像没有这样的代码。
如果哪位好心人知道这样的方法,请告诉一下,非常感谢boter(a)126.com

------------------------------------

2010-09-26补记

该功能已经实现,在探索该功能的过程中,先后用了两个方案,如下

wordpress首页只显示某个分类的文章/rewrite实现

wordpress首页只显示某个分类的文章/插件实现(完美实现,附插件源码)<推荐>

推荐使用第二个,即插件方案。插件是一个wordpress插件基本上稍做修改而成,在此感谢前人的工作。

wordpress 3.0.1终于出中文版了,支持并感激汉化工作者~~

刚才进入wordpress控制板,看到3.0.1中文版出来了,终于出来了,二话不说马上,autoupdate,使用美国主机,自动升级速度非常快,不像之前使用天朝网络里的服务器主机那样,十次升级,9次都要超时。重新载入页面后,控制板里的文字都成中文了,不像之前那样半中半英的了。

从3.0到现在,wordpress终于中文版了,可能是汉化工作者最近一直比较忙,没来得及,现在终于不负广大wp支持者的厚望出了中文版,感谢

几个主要搜索引擎的user_agent及抓取频率

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) 32032
Sogou web spider/4.0(+http://www.sogou.com/docs/help/webmasters.htm#07) 28638
Yandex/1.01.001 (compatible; Win16; I) 5136
Mediapartners-Google 5063
Baiduspider+(+http://www.baidu.com/search/spider.htm) 4871
Sosospider+(+http://help.soso.com/webspider.htm) 2462
Mozilla/5.0 (compatible; YoudaoBot/1.0; http://www.youdao.com/help/webmaster/spider/; ) 1899
Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots) 1612
Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.3) Gecko/20100401 Firefox/3.6.3 1152
Mozilla/5.0 (Twiceler-0.9 http://www.cuil.com/twiceler/robot.html)

这是一段时间内几个对本站抓取量最大的搜索引擎蜘蛛的user_agent及抓取次数,可以参考
有道蜘蛛很猛,比排名第一的google小一些(10%),把后面几个远远落下,是号称全球最大的百度的5倍还多。当然只是对一个站的抓取,没有太大的代表性,仅供参考。

Pages: 1 2 3 Next