网站首页 >> SEO百科 >> 正文
标题

网站怎么吸引蜘蛛(seo代码优化有哪些方法)

墨雨婷   01月25日 17:12   0
内容

JS脚本对网站SEO优化有没有影响?

关于网站JavaScript的使用和SEO注意事项。JS的SEO是近年越来越重要的问题,以前还没写过这方面的话题。无论是异步调用内容,还是增加页面互动,现在的网站几乎无法避免使用JS脚本。但JavaScript使用不当的话可能会对SEO造成非常大的影响。

网站怎么吸引蜘蛛(seo代码优化有哪些方法)

搜索引擎怎样处理JS

首先,简单一句话,JS造成SEO问题的症结在于,搜索引擎不一定执行JS脚本。


做SEO的都知道,要有搜索流量,搜索引擎蜘蛛需要顺利爬行链接,抓取页面,解析并索引页面html代码中的内容,然后才谈得上排名和流量。在爬行、抓取、索引的过程中,如果JS造成障碍,就会导致问题。

浏览器执行JS、渲染页面是肯定的,使用用户访问一切正常。但问题就在于,搜索引擎蜘蛛抓取页面html代码时,如果遇到JS,不一定会去执行JS脚本,那么需要执行JS才能看到的内容,搜索引擎就不一定看得到。

Google遇到页面JS时,会在有计算资源、且页面有比较高价值时,尝试执行脚本、渲染页面。百度则基本上不执行JS脚本。所以做中文网站,使用JS上就更要谨慎。


重要链接不要用JS

搜索引擎爬行、抓取页面是靠跟踪链接的。如果重要链接需要运行JS脚本才能调用或解析出来,那搜索引擎就可能无法跟踪。


不是说链接就不能用JS调用,但重要的、想被收录的页面至少还要有最普通的<a>格式链接提供抓取入口。比如,调用一些相关文章、相关产品链接,可以用JS,但这些链接在网站主导航中都已经有列表页面提供了入口才行。

主导航、菜单系统、栏目/产品列表,不要用JS,除非你确认有其它方法提供了入口。


想被收录的内容不要用JS调用

页面上的文字内容,凡是想被收录的,不要用JS调用,包括文章正文,产品说明,产品图片,评论等。


JS倒是可以用来调用那些不想被收录的文字,比如广告、某些侧栏内容等。

我见过用JS调用内容的各种千奇百怪的用法,比如还有用JS调用页面标题标签的。


慎用懒加载、瀑布流

图片懒加载,甚至文字内容懒加载,是现在网站经常使用的方法,在一定程度上有利于提高页面速度。但要注意,用JS实现懒加载时,是否需要用户互动才能加载,比如点击“更多”链接,或者向下拉页面,搜索引擎蜘蛛是不会做这些动作的,不会点击按钮,也不会下拉页面,所以就可能看不到懒加载后的内容。无论懒加载的是更多本页内容,还是更多其它页面列表,都可能造成爬行、索引问题。


列表页面使用瀑布流是社交媒体网站的主流方式,用户已经习惯,有的普通网站也学这种方式。同样,要考虑到社交媒体网站经常是主动屏蔽搜索引擎的,不想让搜索引擎索引,普通网站大概率是想被索引的,使用瀑布流时要想一想有没有提供搜索引擎可以跟踪链接的其它入口。

网站怎么吸引蜘蛛(seo代码优化有哪些方法)

注意速度

一般来说,使用JS会拖慢页面打开和响应速度。


通常下载JS文件倒还不算大问题,除非用了几MB的JS文件。但浏览器执行JS有可能会很耗费设备资源,设计不周的JS可能会执行好几秒钟,浏览器在执行JS时不能处理其它事情,造成脚本阻塞,对用户来说就是个页面空白或卡死数秒钟的状态,这是非常急人的。

所以,尽量删除执行时间过长的JS,执行超过1-2秒的脚本需要慎重考虑。尽量合并JS脚本,减少<script>数量。

尽量减少JS数量,包括第三方JS。我看过很多网站页面需要执行几十个JS脚本,包括很多第三方脚本。问一下自己,这些JS都是必须的吗?真的必须吗?宁可拖慢页面几秒钟、跳出率大幅提高也要用?对信息类页面,除了显示文章内容,其它都不是必须的。对电商网站,除了购物车,其它都不是必须的。

除了用户体验,页面速度也是搜索排名的重要因素。


服务器端渲染

如果可能的话,可以考虑JS在服务器端渲染,而不是客户端(浏览器)渲染。虽然这会增加技术难度,服务器响应也会变慢一点,但服务器性能一定是超过用户设备的,再加上缓存等方法,总体上是会比浏览器执行JS、渲染页面快很多的。



怎样检查JS是否造成SEO问题

几个小方法供读者参考。


一是浏览器禁用JS,看一下访问页面时是什么情况。如果禁用JS后重要内容看不到了,那么搜索引擎也可能看不到。不要寄希望于搜索引擎会青睐你的网站而去执行JS。

第二个是检查页面的快照,尤其是纯文字版的快照。搜索引擎快照在很多情况下就是搜索引擎索引的页面内容。

如果某些内容必须用JS调用,但又希望搜索引擎索引,还可以搜索一下被调用的内容,如果能搜索到,说明搜索引擎执行了JS,索引到了内容。我想不到为什么必须用JS调用,但很多技术人员对使用JS是比较执着的。

网站设计应该避免哪些蜘蛛陷阱呢?

众所周知,不是所有的网站设计技术都是对搜索引擎友好的,像某些小电影网站、博彩娱乐站及某些直播平台站等,可能在技术上都会屏蔽搜索引擎蜘蛛爬行和抓取,而这些技术我们可以称之为蜘蛛陷阱。

网站怎么吸引蜘蛛(seo代码优化有哪些方法)

SEO推广工作很多网站设计技术,但是对于通过搜索引擎获得流量和排名的正常网站来说,我们应该全力的避免这些蜘蛛陷阱。

1、Flash文件设计

基于Flash的视觉效果,部分企业网站首页甚至打开网站就是一个大的Flash文件,这就构成了蜘蛛陷阱。

要知道搜索引擎是无法读取Flash文件中的文字内容和链接的,不能索引出任何文字信息,亦无法判断其相关性,更谈不上收录和排名了。

网站设计应该技术与艺术向结合,像Flash这种文件只是HTML中的一小部分,但却不是最主要的部分,因此网站设计应该站在SEO的角度更合理。

2、Session ID

Session ID是最常见的蜘蛛陷阱之一,用户或者搜索引擎每次访问网站时会产生唯一的Session ID参数,这些参数会加在URL当中。

即使相同的页面也会因为Session ID参数产生不同的URL,容易造成页面重复,搜索引擎难以准确判断。

使用Session ID跟踪用户访问对网站优化非常不利,良家佐言建议,跟踪用户访问应该使用cookies而不要生成Session ID,否则对网站而言就是自掘魂墓。

3、各种跳转

301重定向、302跳转、JavaScript跳转、Flash跳转及Meta Refresh跳转中,只有301转向是搜索引擎推荐的。

而其他跳转方式都对蜘蛛爬行不利,还可能会被搜索引擎判断为有作弊嫌疑,能不用则不用。

4、框架结构

使用框架结构设计的网页是不利于搜索引擎抓取的。

原因在于访问一个使用框架结构的网址所抓取的HTML只包含调用其他HTML文件的代码。

而不包含任何文字信息,所以搜索引擎无法判断网页的内容是什么。

5、动态URL

动态URL指的是数据库驱动的网站所生成的、带有问号、等号及参数的网址。

一般来说,动态URL不利于搜索引擎蜘蛛爬行,应该尽量避免。

6、JavaScript链接

基于JavaScript的作用,使部分网站使用JavaScript脚本生产导航系统,这是比较严重的蜘蛛陷阱之一。

技术上搜索引擎是拥有解析JS脚本的能力,但对于权重低的网站可能很难引起重视。

况且JavaScript链接在SEO优化当中也有特殊用途,那就是站长不希望被收录的页面,因为JavaScript基本可以阻止搜索引擎爬行。

7、要求登陆

有些网站内容放在需要用户登陆之后才能看到的会员区域,这部分内容搜索引擎将无法看到,因为蜘蛛不能填写用户、密码,也不能注册登陆。

8、强制使用Cookies

有些网站为了实现某种功能,如获取用户隐私信息,强制用户使用Cookies,用户浏览器如果没有启用Cookies,页面显示不正常。

而搜索引擎蜘蛛就相当于一个禁用了Cookies的浏览器,同样也无法正常访问。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 lkba@aliyun.com 举报,一经查实,本站将立刻删除。

转载请注明来自专注SEO技术,教程,推广 ,本文标题:《网站怎么吸引蜘蛛(seo代码优化有哪些方法)》

标签:网站吸引蜘蛛seo优化方法

点评

本文暂无评论 - 欢迎您