惠城网站优化实战:从TDK到URL的全面解析

惠城网站优化这事儿,说简单不简单,说难也不难,关键得看怎么操作。本文就从实战角度出发,聊聊惠城网站SEO和排名提升的那些事儿。

TDK优化

TDK就是titledescriptionkeywords的简称。title最重要,优化好了对排名帮助大;keywords现在搜索引擎不怎么看了,这里就不多说了;description会显示在搜索结果里,影响用户点击,得好好写。

title优化

title的分隔符,常见的有,-这些。对百度友好点,-对谷歌好点,英文站可以用空格,中文站少用。长度方面,PC端大概30个中文,移动端20个,超了会被截断。

惠城网站优化,主要针对百度,所以分享点百度优化的建议:
title格式:


  • 首页:网站名称 或者 网站名称服务/产品介绍

  • 频道页:频道名称网站名称

  • 文章页:文章title频道名称网站名称

文章标题不长的话,还可以加点关键词,比如文章title关键词网站名称

推荐做法:


  • 每个页面标题要独一无二,别都用默认的。

  • 标题要明确,包含页面最重要的内容。

  • 简明精练,别堆砌不相关的信息。

  • 重要内容放前面,用户从左到右看。

  • 用用户熟悉的语言描述。

description优化

description不影响网页权值,就是搜索结果摘要的一个选择。长度PC端大概78个中文,移动端50个,超了会被截断。

百度推荐做法:


  • 首页、频道页等没大段文字的网页,适合用description。

  • 准确描述网页,别堆砌关键词。

  • 每个网页描述要不同。

  • 长度要合理。

举个例子,第一个没加meta description,第二个加了,可以看出第二个摘要更可读,用户更了解网站内容。

页面内容优化

使用html5结构

条件允许的话,考虑用html5语义化标签,比如headerfootersection这些。这里就不截图了,更多标签参考All HTML5 Tags。

唯一的H1标题

每个页面应该有个唯一的h1标题,但不是每个页面h1都是站点名称。首页h1是站点名称,内页h1是各个内页的标题,比如分类页用分类名,详细页用详细页标题。

惠城SEO优化

惠城网站建设服务

惠城网站优化案例

img设置alt属性

img必须设置alt属性,宽度和高度固定的话,也同时设置固定的值。
"惠城网站优化"

nofollow

对不需要跟踪爬行的链接,设置nofollow。比如博客评论、论坛帖子这些地方,也可以用于广告链接、隐私政策等。
no follow 链接

正文

内容方面:
  • 自然写作,别刻意堆砌关键词。
  • 高质量原创内容,用户喜欢看。
  • 吸引阅读的写作手法,比如提问、讲故事。
  • 突出卖点,让用户知道你的优势。
  • 增强信任感,比如展示客户评价、案例。
  • 引导进一步行为,比如引导用户咨询、购买。

用户体验方面:


  • 排版合理、清晰、美观,字体、背景易于阅读。

  • 实质内容放页面重要位置,用户一眼看到。

  • 实质内容与广告区分开。

  • 第一屏就有实质内容,别让用户下拉。

  • 广告数量不宜过多,位置别妨碍用户阅读。

  • 图片、视频有利于用户理解的话,尽量用。

  • 避免过多弹窗,影响用户体验。

URL优化

URL设计原则:
  • 越短越好,方便用户记忆和分享。
  • 避免太多参数,复杂了搜索引擎不好抓取。
  • 目录层次尽量少,别太深。
  • 文件及目录名具描述性,一看就知道是啥。
  • URL中包括关键词(中文除外),提高相关性。
  • 字母全部小写,避免大小写混淆。
  • 连词符使用-而不是_,对搜索引擎友好。
  • 目录形式而非文件形式,看起来更专业。

URL静态化

现在搜索引擎爬行能力强了,可以不用做静态化。但从收录难易度、用户体验及社会化分享来看,静态简短的URL更有利。

具体讨论可参考:URL静态化还是不静态化?

URL规范化

1、统一连接
http://www.domainname.com
http://domainname.com
http://www.domainname.com/index.html
http://domainname.com/index.html

以上四个都是首页,但对搜索引擎来说是四条网址,内容相同,可能被误认为是作弊。所以最好自己规范好。

2、301跳转

URL改变的话,旧地址301指向新地址,不然之前收录权重就白搭了。

一些cms系统可能造成多个路径对应同一篇文章,可以启用301,转向一个路径。

3、canonical

这个标签表示页面唯一性,以前百度不支持,现在支持了。用在参数传递的时候,比如:

//:example.com/download/app.html
//:example.com/download/app.html?from=123
//:example.com/download/app.html?from=456

以上三个表示三个页面,但其实后两个只是想表明来源。为了确保为同一个页面,在head上加上canonical标签。


robots

robots.txt

搜索引擎蜘蛛访问网站时,会先访问robots.txt文件。这个文件用于指导搜索引擎蜘蛛禁止抓取或只允许抓取哪些内容,放在站点根目录。

以惠城某网站的robots.txt为例:


  • User-agent 表示规则适用哪个蜘蛛,表示所有。

  • # 表示注释。

  • Disallow 表示禁止抓取的文件或目录,必须每个一行分开写。

  • Allow 表示允许抓取的文件或目录,必须每个一行分开写。

  • Sitemap 表示站点XML地图,注意S大写。

下面表示禁止所有搜索引擎蜘蛛抓取任何内容:

User-agent: 
Disallow: /

下面表示允许所有搜索引擎蜘蛛抓取任何内容:

User-agent: *
Disallow:

注意:被robots禁止抓取的URL,还是可能被索引并出现在搜索结果中。只要有导入链接指向这个URL,搜索引擎就知道这个URL的存在。虽然不会抓取页面内容,但索引库还是有这个URL的信息。

meta robots

如果要想URL完全不出现在搜索结果中,则需设置meta robots。

上面代码表示:禁止所有搜索引擎索引本页,禁止跟踪本页上的链接。

当然还有其他类型的content,但各个浏览器支持情况不同,这里忽略。

SEO工具

  • 百度搜索风云榜
  • 百度指数
  • 百度站长平台
  • meta seo inspector,检查标签的,谷歌插件
  • seo in china,百度收录的各种数据,谷歌插件
  • check my links,检查链接,谷歌插件
  • seo quake,统计各种数据,谷歌插件

发表评论

评论列表