AffsTools
一步一步教你用网络营销实现财务自由

SEO笔记| 网站SEO优化经验分享

下一篇黑帽子会讲淘宝所谓的黑搜到底是怎么操作的,如何在一周时间内单品免费流量快速增长破500uv,如果想了解可以扫描右上二维码关注关注我!

此文略长,读完大概需要5分钟。

受朋友之邀,分享一篇关于网站常规的SEO优化方法,给刚开始自己做站经验不足的站长们,大佬们可以忽略这篇内容了。黑帽子做过的站也不下二十个了,基本上各种类型的站都做过,比如电影站、新闻站、资源站、小说站、下载站、系统工具站等等,多少还是有一些经验心得可以分享。

为什么要黑帽子要讲白帽SEO,因为这是黑帽SEO的基础,没有做过的白帽SEO的黑帽并不是一个好黑帽,黑帽SEO相比白帽SEO往往更需要深入理解搜索引擎的算法,也更需要外部资源去支持。

现在说一下何谓白帽SEO的常规优化,理解起来很简单,但SEO这行往往入行容易,做好了难,很多时候做了一些优化并不会见到效果,这需要大量的实战经验去摸索。

先从建站开始讲,选择一个好的模版、CMS程序、域名和服务器是成功的开始,很多新手站长选择模版时往往只会关注模版的样式是否好看,而不会关注模版的目录层次是否够浅、站内的内链结构是否合理、代码结构是否符合规范等这些要素,而往往这些基础的因素会对网站的收录造成比较大的影响,模版、域名、服务器的选择也是操作黑帽站群的必修课。

现在的搜索引擎已经不像08年前那么智障了,需要站长们更多站在用户角度去思考,站在搜索引擎角度去思考,而不只是一味的去堆砌关键词,恶意采集一些内容和伪原创等用一些作弊手法去欺骗搜索引擎,而要多多思考用户到底需要什么内容和服务,搜索引擎也更希望符合用户需求的内容能够快速便捷的被用户找到。

如果说以前的搜索引擎是连接人与信息,而现在的搜索引擎是连接人与服务。

规范并且语义化强的代码结构、合理的内链结构、稳定的内容更新数量和频次、优质的网站内容等都是对搜索引擎友好的表现。

robots文件,蜘蛛抓取的第一个文件,如果服务器根目录没有robots.txt文件,蜘蛛会返回404状态码,如果你不会写robots请在服务器根目录创建一个名为robots的txt格式的空文件。

sitemap.xml如果你有海量的内容创建网站地图就很有必要了,sitemap可以让搜索引擎可以相对快速的抓取到你网站中的内容。如果不会创建sitemap的站长,可以使用一些第三方工具,比如爱站SEO工具包。

设计对用户友好的404页面,如果你的网站因为某些原因删除了一些内容,而搜索引擎的收录并没有及时更新,一旦有用户通过搜索进入你的网站,如果你没有设置404页面就会出现如下图一样的界面,用户会不会觉得这个网站坏了?下次还会再来访问吗,另一个就是搜索引擎判断一个网站的质量的关键词数据指标就是网站的跳失率、访问深度,出现大量这种不友好的页面会降低搜索引擎对我们站点的信任。

SEO笔记| 网站SEO优化经验分享

那么友好的404页面该是什么样的呢?见下图

规范、语义化的代码结构,什么是语义化呢,借用百科的解释,语义化是对数据和信息进行处理,使得机器可以理解。通俗讲就是html标签的几个基本含义和属性,比如a标签的title属性,img标签的alt属性等等。

相关性强的页面,什么是相关性有很多因素,但根据百度官方的解释,相关性最重要的是网页标题(title)与文章内容的相关性,简单说就是网页标题要和网页中的实际内容要高度相关,因为title是搜索引擎展现给搜索用户的第一重要的内容,title和网页内容的相关性决定了用户的搜索体验,而决定了页面质量的是内容的质量,其实说白了就是用户是否对你的内容感兴趣,也就是页面的停留时长、页面跳失率、访问深度这些数据指标,百度都是可以通过浏览器cookie监测到的。

还有一个就是关于采集的问题,百度今年7月份出了飓风算法严打恶意采集的站点,很多站长直呼站越来越难做了,但黑帽子今年10月份参加了百度线下举办的一个站长大会得到了百度官网的对飓风算法的准确解释,飓风算法打击的是恶意采集的站,并不是所有的采集站,什么是恶意采集呢?百度官网说的是采集的内容和自己的网站的相关性不强,并且采集的内容什么都不改动直接发布,这应该是指的那些靠采集活着的垃圾站群,百度其实是支持采集的,但仅仅是支持对采集后的内容进行二次加工的站点,这不难理解,互联网上难免有重复的信息内容,而百度视内容对用户的价值进行索引排名,所谓价值也就是用户体验了。

未经允许不得转载:AffsTools.org » SEO笔记| 网站SEO优化经验分享

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址