网站运营优化(如何运营新建站点)
对于网站优化而言,特别是新网站建立,我们都需要格外的注意,理由很简单:万丈高楼平地起,我们只有打好基础,才能有的放矢。
因此,你可能需要关注如下:网站优化技巧
一、网站的定位
一个企业在创办前就应该对公司的方向、发展等做好定位,网站同样如此。比如说网站面对的客户是谁;网站业务面向的地区以及网站的主要关键字的确定等。
二、域名选择
简短易于记忆的域名被证明是成功网站的开始。域名尽量紧扣网站名,记住,网站名及域名是你的品牌。鼓励使用.com,.cn..net等常见后缀域名,当然你有.gov的背景,那你在起点上会更高一点。而对于英文网站在域名中体现关键词,被证明没有任何作用。
三、网站三大关键要素(非常重要,新建过程一定要定出来)
网站的三大要素为:“title”、“Description”、“keywords”。网站上线就必须做好设置,一旦上线后,如非必要,最好不修改,尤其是title。
Title不易过多25个汉字或者50个英文字母之内,越核心的关键词排位要越靠前。Description100个汉字或者200英文字母之内。
四、稳定的服务器(这个不多说了)
五、设计规范
当然还要尽量避免使用JS、flash、ajax等蜘蛛无法索引的代码。就是尽量那些阻碍网页打开速度的一些东西。同时,网页大小最好控制在50K以下,越小越好。简单大方,内容言简意赅。提高客户的浏览速度。一个网页超过8秒(有个8秒定律)打不开一般客户就开始厌烦选择放弃。
六、内部网页关键词以及长尾关键字布局
网站首页一般把关键字定下来了,但是内部网页关键字或者长尾关键字的布局做好设置,不要太密集也不要一个网页下来一个关键字也没有。建议控制在5%-8%是比较理想的。当然仁者见仁智者见智也不是说不可以改动。
七、网站内部文章
网站内部文章争取是原创或者伪原创,因为一个新网站一开始要想迎来不错的网站排名这个是不错的选择。新颖不仅是这些搜索引擎想要的,新颖也是客户想要的。
八、网站ROBOTS代码
什么是robots.txt文件?
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。
spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的
好文分享
网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。注意:新站最好用这个文件屏蔽下,不让百度抓去网站任何内容,因为建站过程也许有修改,等真的做好以后再打开这个禁止。
九、做好网站细节,提高用户体验度这块(以前网站这块做的不怎么好):
(1)网站打开的速度,用户打开网站速度是影响用户的一个方面,一分钟才打开你的网站,谁还去看呀,直接毙掉,选择服务器要稳定的,不要光图便宜。其一要选择优质稳定的虚拟空间;其二网站要尽量少用图片和FLASH,即使使用也要经过处理;其三,用DIV+CSS布局会比常用的TABLE布局访问速度快很多;其四简化网站布局结构。
(2)网站服务定位,网站建设期间,要考虑能为用户提供哪些服务?能为用户带来什么好处?这些服务是否是真实的,是否是健康的?
(3)网页色彩(科技类的建议用蓝色调为主),用户判断一个网站就是网站的色彩,页面柔和,舒服那么体验就上去了,用户就愿意多看些网站内容?网站优化UI设计不可少。
(4)网站整合,网站整合是把网站相关性的信息整合在一起,比如一些客户案例还有就是网站互动(比如在线QQ或者电话客服等)这块等。
十、网站首页
网站首页不建议放很多东西,做好导航、次导航、面包屑导航(导航不要用FLASH图片要用文字)。以及一些超链接等等,首页幅面不建议过大,过大过长显得不专业。
十一、特殊页面(301(永久重定向)/404(错误页面)/500服务器内部错误502(服务超超时或者网关错误))
301/404/500等对客户友好的网页页面必须有个很好的设计。
十二、友情链接的设置
十三、站内猫文本设置
十四、不要存在死链接