首先,我们需要了解搜捕系统的工作原理。根据工作原理,今天编辑简单介绍一下如何建设一个符合搜索引擎抓取系统习惯的网站。
蜘蛛爬行相当于遍历网络的有向图,所以一个结构简单清晰的网站一定是其核心,并尽量保证蜘蛛的可读性。
(1)树形结构是"首页频道详情页";
(2)扁平化首页到详情页层次降低,容易抓取,能很好的转移权重。
(3)mesh保证了每个页面至少有一个文本链接点,这样可以尽可能全面的抓取网站,内链的构建也可以对排名起到积极的作用。
(4)导航为每个页面增加一个导航,方便用户知道路径。
(5)相信很多站长对于子域和目录的选择都有疑惑。我们认为,当内容较少、相关性较强时,建议以目录的形式实现,有利于权重的继承和收敛;当内部容量较大,与主站相关性稍差时,建议以子域形式实现。
(1)在一个好的网站中,同一个内容页面只对应一个URL。网址过多会分散页面权重,目标网址可能会被系统过滤掉;
(2)动态参数尽量少,URL尽量短。
(3)美学允许用户和机器通过URL判断页面内容的主题;
我们推荐以下几种形式的网址:网址尽量简短易读,以便用户快速理解,比如用拼音作为目录名;系统中只生成相同内容对应的URL,删除无意义的参数。如果URL无法保证,请尝试制作不同形式的url301到目标URL;防止用户错误地将域301输入到主域中。
(1)不要忽视那些不幸的机器人文件。默认情况下,系统中的一些机器人会被禁用的搜索引擎捕获。网站建立后,及时检查并编写相应的机器人文件,网站日常维护时注意定期检查;
(2)建立网站的站点地图文件和死链文件,并通过百度站长平台及时提交;
(3)部分电商网站存在区域跳转问题。建议做一个统一的页面,标注页面中是否有商品。如果该区域没有产品,将返回一个无效页面。由于蜘蛛出口有限,正常页面不会收录。
(4)合理利用网站管理员平台提供的机器人、网站地图、指标量、抢压、死链提交、网站改版等工具。百度图片优化难怎么办?
作者:徐州百都网络 | 来源:[db:出处] | 发布于:2022-02-20 13:53:10