友情提示:如果本网页打开太慢或显示不完整,请尝试鼠标右键“刷新”本网页!阅读过程发现任何错误请告诉我们,谢谢!!
报告错误
网络营销知识仓库-第45部分
按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
以完成。同样也可以仅 仅通过编辑单独的一个文件就完成跨站点般的表现上的转换。 Web 标准可以为网站的创建者节省时间与金钱,还可以为网站的浏览者提供一个更好的经历。如果想了解更多关于WEB 标准的知识,推荐访问站点:w3cn 。二、代码的逻辑性 搜索引擎是通过分析网页源代码来分析页面文本信息的逻辑性,所以在编写网页代码的时候一定要尽可能使用合适的标签来体现文本表达的层次感,也即是让搜索引擎“看懂”哪些文本信息要重于其他部分。 1、标题标签 在 Html代码中,标题的标签一共 6个,它们的具体代码表现形式分别是:“ h1 标题1 /h1 ”、“ h2 标题2 /h2 ”、“ h3 标题3 /h3 ”、“ h4 标题4 /h4 ”、“ h5 标题5 /h5 ”和“ h6 标题6 /h6 ”,其中标题 1 的逻辑权重最大,其他的标题重要性随着h 后的数字增大而减小。在搜索引擎的文本分析中,标题的信息权重要比文章正文的大,所以我们尤其要注意内容标题的规划和书写。 一篇文章中可能会出现很多标题,诸如正文大标题、副标题、段落标题等。我们应该根据标题的逻辑重要性分配合适的标题标签,正文大标题应该是 h1 ,副标题可是是 h2 ,而段落标题则可分配 h3 ,其他的就可以以此类推了。我们不建议所有的标题都采用 h1 标签,这样不能向搜索引擎阐述哪些标题应该比其他的标题更加重要,因而显得标题没有层次逻辑性。 2、强调标签 为了说明文章正文部分的某些字词或者句子的重要性,我们应该要通过 html强调代码来标识它们,从而使其与其他部分的字词或者句子区分开来。 一般强调标签: em ,Html 代码表现形式:“ em 强调的字词或句子 /em ”,被 em 标签包括了的字词或句子在网页中表现为斜体。 重点强调标签: b 和 strong ,具体Html 代码表现形式:“ b 强调的字词或句子 /b ” 和“ strong 强调的字词或句子 /strong ”,被重点强调标签包括了字词或句子在网页中表现 为粗体。 b 主要侧重于表现视觉上的强调,而 strong 则是指语意上的强调。 以上所谈的两类标签表达的文本逻辑性权重很大,所以其配合表现的字词句段在搜索引擎的文本分析中占有极大的评估优势,这也就不难理解为什么很多的 SEO 对它们十分重视了。网页设计师在编写代码的时候应当尽量使用丰富多样的标签,让网页的文本信息具有逻辑性,从而让搜索引擎能更好的读“懂”网页中的信息。对于搜索引擎优化人员来说,在这些标签中部署关键词是一个不错的选择。 第八节 面向搜索引擎的文案写作指导 文案写作在搜索引擎优化技能中占有很大的份量,专业的搜索引擎优化人员必须具有很娴熟的文字写作能力。在本节,我们将会向你介绍如何来撰写针对搜索引擎的的文案。 一、网页标题 Title 通过下面的这张图片,可以看出Title 在网页浏览器和Html 源代码中的显示位置。 由于网页的Title 部分内容在搜索引擎的文本分析中占有很高的权重,所以网页Title 写作质量的好坏对页面的优化效果有很大的影响。1、Title 的写作原则 描述要简练有力,总字符数建议不要超过 60,而且要有核心关键词出现。切记勿出现 堆积关键词的现象,Title 部分的行文描述一定要流畅。的位置可以随意调换;如果两个部分的总字数超过30 的话,可以把网站简要描述部分的内 容放置于网站名称的前面。首页的Title 部分要部署核心关键词,但不可泛滥堆积关键词。 2、Description Description 具体网页源码表现形式为: meta name= description content= 。 Description 告诉搜索引擎你的站点上的页面的主要内容。Description的content 部分文字内容最好控制在 100 个字符左右,行文流畅。Description 部分的内容应该是具体页面主要展示信息的简洁而强有力的概述。 3、Robots Robots 的具体网页源码表现形式为: meta name= robots content= 。 Robots的 content部分文字可以填写的内容为:all、none、index、noindex、follow和nofollow 。对于Robots 的content 部分填充内容有如下说明解释:分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录 指定的内容。 当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots。txt, 如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那 么搜索机器人就沿着链接抓取。 robots。txt 必须放置在一个站点的根目录下,而且文件名必须全部小写。 一般来说相应的网站就会拥有一个对应的robots。txt 文件,如: w3/ w3/robots。txt2、robots。txt 的语法“robots。txt ”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL 作为结束符),每一条记录的格式如下所示:“ field : optionalspace value optionalspace ”。 在该文件中可以使用#进行注解,具体使用方法和 UNIX中的惯例一样。该文件中的记录通常以一行或多行User…agent 开始,后面加上若干Disallow 行,详细情况如下: Disallow: /cgi…bin/ Disallow: /tmp/ Disallow: /private/ D。禁止某个搜索引擎的访问(下例中的BadBot ) User…agent: BadBot Disallow: / E。只允许某个搜索引擎的访问(下例中的WebCrawler ) User…agent: WebCrawler Disallow: User…agent: * Disallow: / F。常见搜索引擎机器人Robots 名字 表 6…8…1常见搜索引擎机器人 Robots 名字 名 称 搜 索 引 擎BaiduspiderbaiduScooteraltavistaia_archiveralexaGooglebotgoogleFAST…WebCrawlerallthewebSlurpinktomiMSNBOT search。msn4、robots。txt 举例 下面是一些著名站点的robots。txt: cnn/robots。txt google/robots。txt ibm/robots。txt sun/robots。txt eachnet/robots。txt 5、常见robots。txt 错误 A。颠倒了顺序 错误写成: User…agent: * Disallow: GoogleBot 正确的应该是: User…agent: GoogleBot Disallow: * B。把多个禁止命令放在一行中例如错误写成: Disallow: /css/ /cgi…bin/ /images/ 正确的应该是: Disallow: /css/ Disallow: /cgi…bin/ Disallow: /images/ C。行前有大量空格 例如写成: Disallow: /cgi…bin/ 尽管在标准没有谈到这个,但是这种方式很容易出问题。 D。 404 重定向到另外一个页面 当Robot 访问很多没有设置 robots。txt 文件的站点时,会被自动 404 重定向到另外 一个Html 页面。这时Robot 常常会以处理robots。txt 文件的方式处理这个Html 页面文 件。虽然一般这样没有什么问题,但是最好能放一个空白的 robots。txt文件在站点根目录下。 E。采用大写。例如 USER…AGENT: EXCITE DISALLOW: 虽然标准是没有大小写的,但是目录和文件名应该小写: user…agent:GoogleBot disallow: F。 语法中只有Disallow,没有Allow 错误的写法是: User…agent: Baiduspider Disallow: /john/ allow: /jane/ G。忘记了斜杠/ 错误写作: User…agent: Baiduspider Disallow: css 正确的应该是: User…agent: Baiduspider Disallow: /css/ 下面一个小工具专门检查 robots。txt 文件的有效性: searchengineworld/cgi…bin/robotcheck。cgi五、链接锚文本 什么是链接锚文本?举个例子解释说明一下:诸如,有一个网站做了个点石的友情链接,其具体代码表现为 a href= dunsh 点石互动 /a ,其中“点石互动”即为该链接的锚文本。 1、链接锚文本(Anchor Text)描述在SEO 中有什么作用? 搜索引擎可以根据指向某一个网页链接的锚文本描述来判断该网页的内容属性,点石是一个搜索引擎优化研究团队,所以有很多指向点石的链接锚文本描述为“搜索引擎优化”, 这样会让搜索引擎根据属性投票来给点石在搜索引擎优化的自然排名方面有一个考虑,尤其 是这样的反向链接的质量和数量上升到一定层次时,这种排名优势也就越明显。 很多网站的锚文本的形式诸如以下形式:more、更多、阅读详细信息、点击这里等,这样的做法没办法让搜索引擎对某一个被链接的网页内容属性有一个好的判断,从而影响网页排名。 2、链接锚文本(Anchor Text)的优化 每个页面的内容都不同,因此我们在进行关键词策略部署的时候,就应该针对某一个目标页面有一个关键词考虑。一般来说一个页面的核心关键词在 1…3 个范围(范围太大,关键词的权重就有可能被稀释),所以我们一般在其他页面做指向该页面的链接的锚文本描述中就应该布置预先规划的核心关键词,而且锚文本描述的形式应尽量多样化。六、Sitemap。xml Sitemaps协议使你能够告知搜索引擎网站中可供抓取的网址。最简便的方式就是,使用Sitemaps协议的Sitemaps就是列有某个网站所有网址的XML文件。此协议可高度扩展,因此可适用于各种大小的网站。它还能够使网站管理员提供有关每个网址的其他信息(上次更新的时间、更改的频率、与网站中其他网址相比它的重要性等),以便搜索引擎可以更智能地抓取该网站。 Sitemaps协议补充而不是取代搜索引擎已用来发现网址的基于抓取的机制。通过向搜索引擎提交一个Sitemaps(或多个 Sitemaps ),可帮助搜索引擎更好地抓取你的网站。1、XML Sitemaps 语法格式 Sitemaps协议格式由XML 标记组成,Sitemaps的所有数据数值应为实体转义过的,文件本身应为UTF…8 编码的。 以下是只包含一个网址并使用所有可选标记的Sitemaps示例。可选标记为斜体。 ?xml version= 1。0 encoding= UTF…8 ? urlset xmlns= google/schemas/sitemap/0。84 url loc example/ /loc lastmod 2005…01…01 /lastmod changefreq monthly /changefreq priority 0。8 /priority /url /urlset Sitemaps应: 一个网页的默认优先级为0。5。 请注意,你为页面指定的优先级不影响你的网址在搜索引擎的结果页的排名。搜索引擎在同一网站的不同网址之间进行选择时使用此信息,因此,你可以使用此标记来增加相对重要的网址在搜索索引中显示的可能性。而且,请注意为你网站中的所有网址都指定高优先级对你没什么好处。由于优先级是相互关联的,只用于在你自己网站的网页之间进行选择;你网页的优先级不会与其他网站的页面优先级进行比较。3、实体转义 Sitemaps文件为UTF…8编码(通常在保存文件时可以做到)。对于所有的XML 文件,任何数据数值(包括网址)都应对下表中列出的字符使用实体转义码。 表 6…8…3 实体转义 字符转 义 码 &符号 &&; 单引号 ';' 双引号 大于 小于 此外,所有的网址(包括 Sitemaps 的网址)都应编码,以便它们所在的,以及网址转义的Web服务器识别。然而,如果使用任何脚本、工具或日志文件来生成网址(除了手动输入之外的任何方法),通常这部分已经替你完成了。如果提交了Sitemaps 却收到Google 无法找到某些网址的错误消息,请查看并确保你的网址遵循RFC…3986 URI 标准、RFC…3987IRI标准以及XML标准。 这是使用非ASCII 字符(ü )以及要求实体转义的字符(&)的网址示例: example/ümlat。html&q=name 这是ISO…8859…1编码的(用于使用该编码的服务器上的托管)以及网址转义过的同一网址example/%FCmlat。html&q=name 这是UTF…8编码(用于使用该编码的服务器上的托管)且网址转义过的同一网址: example/%C3%BCmlat。html&q=name 这是实体转义过的同一网址: example/%C3%BCmlat。html&;q=name 4、XML Sitemaps 示例 下例显示了一个XML格式的Sitemaps 。示例中的Sitemaps包含少数网址,每一个都用 loc XML 标记来识别。此示例中,为每个网址提供了一组不同的可选参数。 ?xml version= 1。0 encoding= UTF…8 ? urlset xmlns= google/schemas/sitemap/0。84 url loc example/ /loc lastmod 2005…01…01 /lastmod changefreq monthly /changefreq priority 0。8 /priority /url url
温馨提示: 温看小说的同时发表评论,说出自己的看法和其它小伙伴们分享也不错哦!发表书评还可以获得积分和经验奖励,认真写原创书评 被采纳为精评可以获得大量金币、积分和经验奖励哦!