关于吉林360seo的那些事儿

一、360搜索的那些门道
当我们打开电脑,在浏览器里输入jilin.360.com,然后输入关键词进行搜索,接着就能看到搜索结果。要说这里面的门道,360搜索背后可做了不少工作。
在360搜索后台,有着非常庞大的数据库,里面存放着海量的关键词,每个关键词又对应着很多网址,这些网址都是360的程序从浩瀚的互联网上一点点抓取回来的,这些程序我们管它叫"搜索引擎蜘蛛"或者"网络爬虫"。这些勤快的"蜘蛛"整天在互联网上爬来爬去,从这个链接爬到那个链接,把看到的内容都下载下来,仔细分析提炼,找出里面的关键词,如果"蜘蛛"觉得这个关键词数据库里没有而且对用户有用,就会存到数据库里。反过来,如果"蜘蛛"认为是垃圾信息或者重复的内容,就直接丢掉不要,继续往前爬,寻找最新、最有用的信息保存起来,等着用户来搜索。当用户在吉林地区使用360搜索时,就能把跟搜索词相关的网址找出来展示给用户看。
一个搜索词可能对应很多网址,这就涉及到排序的问题,一般来说跟搜索词最匹配的网址就会排在前面。在"蜘蛛"抓取网页内容、提炼关键词的过程中,就有个问题:"蜘蛛"能不能看得懂。如果网站内容用的是flash和js,那它就看不懂了,会犯糊涂,就算关键词再怎么贴切也没用。反过来,如果网站内容用的是它能理解的语言,那它就能看明白,这个语言就是SEO。

二、吉林360seo是什么
全称:Jilin 360 Search Engine Optimization,吉林地区360搜索引擎优化。自从有了360搜索,吉林360seo就应运而生了。
存在的意义:为了提高网站在360搜索自然搜索结果里的收录数量和排名位置而做的优化工作。说白了,就是希望360搜索能多收录我们精心优化过的网站,并且在吉林地区的用户搜索时能把我们的网站排在前面。
分类:白帽SEO和黑帽SEO。白帽SEO,能够改进和规范网站设计,让网站对搜索引擎和用户都更加友好,而且网站也能从搜索引擎获得合理的流量,这是搜索引擎支持和鼓励的做法。黑帽SEO,利用和放大搜索引擎的政策漏洞来获取更多用户访问量,这种做法多半是欺骗搜索引擎,通常搜索引擎公司是不支持也不鼓励的。本文主要讲白帽SEO,那么白帽SEO能做些什么呢?


  1. 精心设置网站的标题、关键词和描述,体现网站的定位,让搜索引擎知道这个网站是做什么的;

  2. 网站内容优化:让内容和关键词对应起来,增加关键词的密度;

  3. 在网站里合理配置Robot.txt文件;

  4. 制作对搜索引擎友好的网站地图;

  5. 增加外部链接,到各个网站上去做宣传;

三、吉林360seo的前端优化
通过网站结构布局设计和网页代码优化,让前端页面既能让使用浏览器的用户看懂,也能让"蜘蛛"看懂。
(1)网站结构布局优化:尽量简单明了、直截了当,推荐使用扁平化结构。
一般来说,网站结构层级越少,越容易被"蜘蛛"抓取,也就越容易被收录。通常中小型网站如果目录结构超过三级,"蜘蛛"就不太愿意往下爬了,"万一天黑迷路了可怎么办"。而且根据相关调查:用户如果跳转3次还找不到需要的信息,很可能会离开。所以,三层目录结构也是考虑到用户体验的需要。为此我们需要做到:


  1. 控制首页链接数量


网站首页是权重最高的地方,如果首页链接太少,没有"桥梁","蜘蛛"就没法继续爬到内页,直接影响网站收录数量。但是首页链接也不能太多,一旦太多,都是些没什么实质内容的链接,很容易影响用户体验,也会降低首页的权重,收录效果也不会好。
所以对于吉林地区的中小企业网站,建议首页链接控制在100个以内,链接类型可以包括页面导航、底部导航、锚文字链接等等,要注意链接要建立在良好的用户体验和引导用户获取信息的基础上。

  1. 扁平化的目录层次,尽量让"蜘蛛"跳转3次就能到达网站里的任何一个内页。扁平化的目录结构,比如:"吉林"--> "长春" --> "朝阳区"、"南关区"、"宽城区",通过3级就能找到宽城区了。

  2. 导航优化


导航尽量使用文字方式,也可以用图片导航,但是图片代码一定要优化,标签必须加上"alt"和"title"属性,告诉搜索引擎导航的定位,这样即使图片显示不出来,用户也能看到提示文字。
另外,每个网页都应该加上面包屑导航,好处是:从用户体验来说,可以让用户知道当前所在位置以及当前页面在整个网站中的位置,帮助用户快速了解网站的组织结构,形成更好的方位感,同时提供了返回各个页面的入口,方便用户操作;对"蜘蛛"来说,能够清楚地了解网站结构,同时还增加了大量内部链接,方便抓取,降低跳出率。

  1. 网站的结构布局--这些细节不能忽略


页面头部:logo和主导航,还有用户信息。
页面主体:左边放正文,包括面包屑导航和正文内容;右边放热门文章和相关文章,好处是:留住访客,让访客多停留一会儿,对"蜘蛛"来说,这些文章属于相关链接,增强了页面之间的关联性,也能提升页面权重。
页面底部:版权信息和友情链接。
要特别注意:分页导航的写法,推荐这种写法:"首页 1 2 3 4 5 6 7 8 9 下拉框",这样"蜘蛛"就能根据页码直接跳转,下拉框可以直接选择页面跳转。而不推荐下面这种写法:"首页 下一页 尾页",特别是当分页特别多的时候,"蜘蛛"需要爬很多次才能抓取到,会很累、很容易放弃。

  1. 控制页面大小,减少http请求,提高网站加载速度。


一个页面最好不要超过100k,太大了页面加载速度慢。速度太慢的时候,用户体验不好,留不住访客,而且一旦超时,"蜘蛛"也会离开。

(2)网页代码优化


  1. 标题:突出重点就行,尽量把重要的关键词放在前面,关键词不要重复出现,尽量做到每个页面的标题内容都不相同。

  2. 标签:关键词,列出几个页面的重要关键词就行,切记不要过度堆砌。

  3. 标签:网页描述,要高度概括网页内容,切记不能太长,不要过度堆砌关键词,每个页面的描述也要有所区别。

  4. 中的标签:尽量让代码语义化,在合适的地方使用合适的标签,用正确的标签做正确的事。让看源代码的人和"蜘蛛"都能一目了然。比如:h1-h6 是用来做标题的。

  5. 超链接标签:页内链接要加上"title"属性做说明,让访客和"蜘蛛"都知道。而外部链接,连到其他网站的,需要加上 el="nofollow" 属性, 告诉"蜘蛛"别爬了,因为一旦"蜘蛛"爬了外部链接,就不会再回来了。

  6. 正文标题要用h1标签:"蜘蛛"认为它最重要,如果不喜欢h1的默认样式,可以通过CSS来设置。尽量做到正文标题用h1标签,副标题用h2标签, 其他地方不要随便使用 h 标题标签。

  7. 换行标签:只用来给文本内容换行

  8. 表格要使用表格标题标签

  9. 图片要使用 "alt" 属性做说明

  10. 加粗,强调标签 : 需要强调的时候使用。加粗标签在搜索引擎里很受重视,它能突出关键词,表现重要内容,强调标签的强调效果仅次于加粗标签。


10、文本缩进不要用特殊符号 应该用CSS来设置。版权符号不要用特殊符号 可以直接用输入法,打"banquan",选第5个就能打出版权符号。
12、巧妙运用CSS布局,把重要内容的HTML代码放在最前面,最前面的内容被认为是最重要的,优先让"蜘蛛"读取,进行内容关键词抓取。

  1. 重要内容不要用JS输出,因为"蜘蛛"不认识

  2. 尽量少用iframe框架,因为"蜘蛛"通常不会读取里面的内容

  3. 谨慎使用 display:none :对于不想显示的文字内容,应该设置z-index或者设置到浏览器显示器外面。因为搜索引擎会过滤掉display:none里面的内容。

  4. 不断精简代码

  5. js代码如果是操作DOM操作,应该尽量放在body结束标签之前,html代码之后。

发表评论

评论列表