一、优化侧重点
1、代码层面
(1)扁平化的页面设计,标签层级不超过5层。如果把搜索引擎蜘蛛抓取页面当作是逛街的话,页面层级过多,巷子就越深,蜘蛛获取页面信息就越困难,这显然是不利于SEO的。
(2)重要标签包含关键词。重要标签标明了页面和网站的核心内容,因此带上关键词是很有必要的。重要标签包括:title、h1、h2、图片标签的alt和title属性。
(3)标签语义化。如:能使用strong就尽量不使用font-weight:bold。
(4)页面加载速度尽量快,尽量静态化。加载速度越快,蜘蛛的访问频率也越高;静态化程度越高,蜘蛛对页面的理解性越强。
2、网站层面
(1)必要的404页面、301页面。访问失败,没有跳往404的话,相当于一个死链接,毫无疑问会降低权重的;有404和301页面的话,相当于多了一个内链接,更有利于蜘蛛爬取信息。
(2)必要站点地图。同理,相当于给了逛街的蜘蛛一张地图,让蜘蛛对网站结构了如指掌。
(3)IP映射多个域名。如:http://www.tedu.cn 和http://tedu.cn 都能指向自己的网站。
3、工具层面
(1)灵活使用百度站长、百度指数等工具。在百度站长等平台备注,可以增加权重。同时,也可以查询百度蜘蛛曾经在您的网站发现了哪些死链接和坏链接,可以根据查询的信息来对网站的死链和坏链进行去除。百度指数可以知道,哪些关键词对网站的SEO收益最大。
(2)备注百度百科、百度词条。百度百科、百度词条可以包含了大量公司网站的外链和公司信息。
4、技巧层面
(1)学会交换链接。小公司可以和友公司网站之间交换链接,增加外链。大公司在公司自己多个网站之间相互链接。
(2)如果有链向竞争对手的链接,记得加上nofollow属性。Nofollow会告诉蜘蛛,这个链接不用去爬。
(3)公司的tilte和关键词尽量少换。换title和关键词过于频繁的话,不利于SEO关键词权值的积累。
二、概念点
1、概念
便于爬虫爬取网站数据,提升在搜索位置。
2、描述
不影响权重,但是好的描述可以吸引用户点进去。
3、快照倒退
这不会降权,是一种正常现象。
产生原因:搜索关键词或者上网地区各异、网站内容更变等等,主要还是因为在快照生成部分,爬虫不能即时抓取最新的数据而导致的。
4、robots协议
与爬虫达成协议,规定对网站爬取内容的范围。如果不写,则全部开放。
在网站根目录下创建robots.txt,内容格式为:
User-agent:爬虫。
Disallow:相对路径,也就是不用写上域名。
allow:同上,只是在不允许的范围内开放部分内容。
5、网站内容要专一,不能杂,不然会分散掉得分
6、外链帮助不大,真正符合用户需求的内容才是王道
那么,有用的内容词可以通过以下方式得出:
(1)分析用户需求过程,也就是该网站产品需要有的流程内容,规划出词句,并抓住重点;
(2)根据网站的核心话题,收集热门词汇,再筛选出准确的词。(站长之家、百度指数、搜索提示、相关搜索等等,总之就是利用爬虫得出的数据)
7、有用的词汇才能吸引真正的用户,提高转化率,而不是一味靠高流量
8、白帽SEO(建议):原创、针对用户需求的内容,遵循搜索引擎优化指南
9、黑帽SEO(不建议):建立大量的外链、各种形式堆砌关键词,是一种作弊行为,对用户没有用处,被K的风险极大(不过可以用一点点)
10、404死链接
(1)不利于爬虫工作
(2)降低用户体验
处理措施(让爬虫不要爬到404页面)
1、将死链接打包,提交到百度站长平台
2、robots设置
11、domain相关域
12、nofollow属性值
概念
阻止爬虫对内容抓取。
作用
(1)对外:不对垃圾网站或者广告网站进行外链投票;
(2)对内:不对自己网站中无实质内容的网页进行内链投票,防止分散内容页权重。
使用情景:
<meta name='robots' content='nofollow'>针对整个页面
<a href='xxx.php' rel='nofollow'></a>针对该链接
13、防止黑客冒充大厂爬虫爬取自己网站
nslookup ip查询被爬情况,再用robots文件禁用该爬虫,节约空间流量。
14、301重定向
源网址重定向到目标网址,并传递权重到目标。
15、规划过后,针对关键词,在首页写下扩展关键词(即长尾词)。如:人(关键词),就要写男人、中国人、外星人等等
但是,刻意堆积关键词会产生降权、不被收录、降低用户体验等不良影响。
16、从大数据分析出用户需求并且规划出用户解决问题的流程,罗列出各情景下的需求
假如领域某方面需求供大于需,就应该另寻需求突破点。