大家好,我是一位SEO初学者,今天在上课学习到了SEO新手必知的五点不利优化因素,现在想把自己的学的东西想在这分享下老师讲课的内容,如有说的不好的地方还希望大家见谅。以下就是自己分享的不利优化五个的因素:
第一点:网站不要过多出现死链接
什么是死链接呢?死链接也就是无效链接,就是那些不可达到的链接。 过多的死链接会导致我们网站在搜索引擎的印象,降低搜索引擎对网站的认可和打分。所以,网站出现死链接的时候,我们可以用robots.txt来屏蔽蜘蛛的抓取,或采取404页面提示给用户,来增加网站的权重和跳出率。
第二点:网站是开放的,不是只给会员看的页面
如上图所示,有些网站非要注册或成为会员才能浏览网页,这样的做法必定导致用户粘稠度降低,另一方面阻碍了搜索引擎抓取页面的速度和效果。同时也会导致页面收录不好,板块缺少互动性。目前会员注册主要用微博或qq就可以登录页面,进行话题的参与,灵活、方便的让用户花个几秒钟就可以对网站进行互动参与。
第三点:JS代码尽量嵌套在文件里
因为蜘蛛很难抓取JS代码,在网站优化最好少用或不用JS代码,这样有利于蜘蛛更好更快的抓取你的网站信息。如果网站想用js做特效,可以把js文件单独放在一个文件夹里调用,降低网页的大小。网页页面小了,自然访问速度就加快。
第四点:Flash动画好看不中用
蜘蛛目前对Flash动画还是不能很好的识别,如果企业为了宣传效果使用flash网站,建议在flash后创建一个博客程序,来增加网站的内容更新和收录率,以便在搜索引擎下面获得权重和排名。目前主流的博客程序个人觉得做博客比较好的程序是z-blog和wordpress很便利搭建网站,而且简单容易掌握。
第五点:不选用动态Url
Url分为动态、伪静态和静态三种,蜘蛛对动态的不易抓取,而另外两种是蜘蛛最喜欢的,所以一般情况下我们做网站的时候最好用伪静态或静态。比如wordpress程序,直接在自定义链接写入%post_id%.html,伪静态就做好了,同时也可以用robots.txt协议Disallow:*?来屏蔽搜索引擎来抓取动态页面,减少搜索引擎的重复抓取。
以上五点就是我今天学到的不利优化的因素,希望那些和我一样的朋友可以在优化过程中避免这些问题,进而获得更快,更有效率的优化效果和学习心得。