农业发展论坛.探讨现代农业技术与发展。

 找回密码
 立即注册
查看: 8|回复: 0

SEO完美理论之网站框架结构对搜索引擎优化的影响

[复制链接]

主题

帖子

5

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
5
发表于 2024-10-7 16:26:15 | 显示全部楼层 |阅读模式
去双线服务器合租购买好域名和空间,就可以动手架设自己的网站或者Blog,架设网站之前,最好给自己网站今后发展计划有个详细的策划,规划好以后网站的具体发展路线,避免今后再去对网站框架结构大动干戈地去东改西改。经常改动网站架构框架结构的内容对搜索引擎是非常不友好的,就像人一样,你常对别人说一套做一套的话,别人会慢慢不信任你,疏远你是同一个道理。你对搜索引擎也是如此,不要今天这个网站是这个标题,明天心情不好或者灵感出现换个标题,让搜索引擎每次来你网站抓取都抓到相同内容的文章,那杨搜索引擎蜘蛛就会觉得你是在耍它,它会开始对你越来越不不信任,对你网站的权重评估也越来越低,某一天它无法忍受时,你真的就歇菜了。据说GG是不轻易K人网站,一般K了那你就得等上1年半载都说不一定;百度是经常性的K站,相对GG比较频繁,但被K后,等上几个月有时就可以解禁了。
    这几天学了关于对搜索引擎优化的影响,有点想换域名和空间的冲动。想到自己熬了2个月,现在好不容易被百度,GG收录了将近200篇内容了,突然换空间和域名必定会影响自己网站在GG和百度的权重,或者说我现在还没PR值,直接给GG,百度留下换的影响,以后一段时间内都不来你网站采集文章,很难得到搜索引擎的赏脸,有些担忧,有些害怕。虽然说一般搜索引擎比较喜欢内容原创的文章,但现在又没备案,又没获得PR值,有些怕怕。告诉张楠一个秘密:lxdong.com 我已经自己注册了,哈哈。谢谢你提醒我!~
    言归正传,每次写东西一上来都是2段废话,然后才开始讲,可能习惯了。首先,建立一个网站要用一定符合W3C组织规定的HTML编写代码,只有这样,你的网页才能更容易被搜索引擎蜘蛛或机器人抓取,让蜘蛛或机器人抓取网站内尽可能多的内容,如果你的网站框架结构中的错误很多的话,可能会让蜘蛛或机器人被迫放弃转去,顺着你站内的友情连接而离开。只遵循W3C组织规定的网站才可以获得搜索引擎最高的权重和PR值,我们一般把W3C标准的组织内容规范写在网页头目最靠前的位置,当蜘蛛或奇迹人来到你网站时看到:这段代码它就知道你的网站是遵循W3C组织,当然不是加这么一段代码来的这么简单的事,你加了不代表你写的HTML代码就是规范的,比如,北漂领袖东并不是正真的北漂领袖毛泽东,有人曾经开玩笑的告诉我:你第一看到你的空间标题,一位是写毛泽东的事呢,听完我很是郁闷。大家可以通过在: 进行验证你的网站,看有那些代码是不符合W3C标准的。
    其次,在网页中,尽量用CSS来控制网页中所出现的DIV框,我把他理解成一个小盒子,实用CSS可以控制重复代码的出现,一句话改变网站结构变化也只有CSS才可以做到,当然要设置好了才可以,尽量用简洁的代码表达同一种意思,如,实用DREAMWEAVER软件里面设计去做的话会产生很多无用的代码,可以根据自己能力去适当定义CSS,那样可以省去很多无用的多余代码。CSS和DIV的结合注定TABLE的下岗,清除了那些无关紧要的代码,可以加块不少网页的浏览速度,如果你的站点因空间不稳定,或者代码太乱,太多,导致浏览速度下降的话,这对搜素引擎也是非常不友好的。CSS和DIV合理的结合使用,可以保持人眼视觉上的一致性,也容易控制,比起TABLE需要一一调整,还方便了不少,省去了找代码的时间,避免不同区域显示错误的效果偏差。如:用TABLE的话很有可能因为某个角落你没注意,导致正版面变形,我就碰到过好几会,遇到那种麻烦,心急的时候还一时找不处问题。如果用CSS的话,改变某个定义DIV值就可以看到相同的变化,不需要再去逐个击破困来。
    还有在网页之间一般会都
    。。。。
    的脚本,以下我就简称JS了,JS是脚本的后缀名。大家可以试着把类似的JS文件整理到同一个JS文件里面,省去了循环调用,反复调用相同的js文件也可能而影响到浏览者访问,同时也便于管理,省去了寻找东一个西一个JS文件的苦恼。最重要的是,通过对JS文件的整理,可以让搜索引擎更快的去抓取你网站更多的内容。
    另外网页静态化也是非常非常关键的一项工作,有人问,那到底如何区分静态页面和动态页面呢???非常简单,看网页连接的后缀名,一般都HTML,HTM,XHTML都是静态的(如: ),剩下的如asp等,或者连接带有=,?的都是动态页面(如:guestbook.asp )。2003年的时候几大搜索引擎都拒绝收录动态页面,因为那还可能就是死循环或者是一个陷进,影响搜索引擎正常收录的工作,最近两年已经基本得到控制,嵌入式杀毒软件的出现,终结了动态网页制作病毒连接的历史,但相比之下,静态页面的收录情况远比动态页面要好的多。不管是搜索引擎对动态页面的抓取技术不够成熟,还是动态页面依然嚣张不止,选择静态页面绝对很好!静态页面易于管理,维护,而不需要多么高深的数据库调用技术,通过简单的人工修改即可实现想要的效果,这当然指小型的网站或者BLOG实用,Z-BOLG和DEDE的系统也都支持页面静态化。今天有个人在QQ上问我,Z-BLOG如何设置静态页面,其实很简单,在Z-BLOG的网站设置里面有个静态页面设置和文件重建设置,只要选择启用自定义静态目录功能和生成分类和静态归档的首页2个选项就可以实现,如果你想定义不同类目的文件加,把不同类目的文章放在不同的类目里,需要手动去改,有些麻烦,我就不在这细说了。
    其中网页内容大小的处理对搜索引擎的抓取也是很有影响的,如果一个网站首页都是图片,打开一定很慢,而且首页文件会很大,这是搜索引擎最嫉妒的。在2003年的时候,网络上一直流传一句话,单页大小超过100K的网页,搜索引擎一般收录不完整,这个话题很敏感,想2003年的网络状况,那是ADSL才刚新起,网吧行业迅速崛起的时候,很多人还用着电话线上网,你说那速度有多块大家可想而知吧。在上传图片的时候尽量用PS处理一下,打开文件选择存储为WEB专用格式,可以省不少空间;在网页中加入FALSH的时候,和PS一样,打开文件那选择发布HTML格式,直接把代码导入到网页即可,如果担心有些浏览器不支持某些格式的FALSH播放器,你可以多写几种版本的FALSH供浏览器随意选择。这样可以提高访问者观看FALSH的速度。注意一点,请慎用所谓的网页减肥软件,减少网页内容很可能某些功能将无法显示。
    最后说一下ROTBOTS.txt文件,Z-blog程序默认没有的,差点忘了介绍ROTBOTS,它是一个纯文本文件,目的是通过此文件告诉搜索引擎你的的拿些文件是可以抓取,哪些是不想被抓取,这样方便蜘蛛更好的抓取,具体如何设置请忘下看吧。
    三搜索引擎蜘蛛名:GoogleBot-谷歌蜘蛛 baiduspider-百度蜘蛛 Yahoo Slurp-雅虎蜘蛛,所有蜘蛛名区分大小写和空格一般格式!
    User-agent(用户代理设置的意思):(搜索引擎蜘蛛名或机器人名
    Disallow(拒绝的意思):/(不想被访问到的文件所在相对路径)
    例如: User-agent:GoogleBot
    Disallow:/upload/post/
    赶快行动起来吧,你一定有什么不想让人看到文章吧?你可以试着在搜索引擎再次光临你站点前把ROTBOTS文件整理好,然后上传到你空间根目录就可以了。
    今天困死了,先睡了,有什么不理解的在下面留言或者加我QQ:等我明天醒来给你解答。
    更多精彩,敬请关注SEO完美理论探索者-北漂领袖东Blog:
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|农业发展论坛

GMT+8, 2024-11-23 15:06 , Processed in 0.031348 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2013 Discuz Team.. 技术支持 by 巅峰设计

快速回复 返回顶部 返回列表