Skip to main content
 当前位置:seo培训 > seo教程 >

SEO小白快速入门基础指南

2021-03-22 09:46:091182SEOer

SEO小白快速入门基础指南

三,关键词的挖掘与部署

定位网站:网站提供哪些内容(主题是什么)?网站主要吸引哪些人来访问?网站如何盈利?

2.挖掘关键词方法:手动(下拉框和相关搜索、淘宝京东搜索框),工具挖掘关键词(爱站、追词),头脑风暴

3.关键词的筛选:挖掘出关键词,剔除没用或者不合理的关键词,对关键词进行归类(品牌+核心+流量),归类方法根据行业有所不同

4.如何选择效能较高的关键词:关键词效能=搜索数量/相关页面数(其中搜索数量可用百度指数查询),关键词的商业价值,竞价多少

5. 建立词库的作用:预估网站流量、为后期的优化提供方向

6.关键词部署:首页(核心关键词)、栏目页(常用关键词)、长尾关键词(文章内容页)

7.关键词部署技巧:主页、频道页建议3-5个关键词,内容页面建议只部署1个关键词,站内不要两个页面同时出现相同关键词

四,TDK的优化技巧

T=title=标题;D=description=描述;K=keywords=关键词

2.百度分词算法:基于用户输入(空格);基于百度自身的词典;基于用户行为(大数据);百度只有大于四个字符的时候才会分词

3.如何写title:标题不要过长、百度首页最多显示32个字符、不要部署过多关键词、推荐2-3个关键词;标题要与页面内容相符;网站内页面标题不要重复;关键词不要重复堆砌;标题中第一个出现的关键词,权重最高

4.keywords:只能用半角逗号隔开

5.description:为每个页面创建不同的描述;尽量提供更多相近的关键词,但不要堆砌;长度控制在200个字符内,不要太短或太长;要精准的表述你的页面;描述要有吸引力,吸引点击

五,网站结构优化

网页常见结构:树状结构、扁平结构

2.主域名、二级域名、二级目录:主域名权重最高,二级域名权重其次,二级目录域名权重次之

3.二级目录:网站整体结构较小;栏目中文章内容较少;需要快速收录,参与排名;栏目与主站内容相似度高

4.二级域名:网站结构较大,栏目较多;内容比较丰富,文章较多;优化的关键词,竞争较高;内容差异大,关联度不高

5.url优化:url尽量简短,整站目录保持三层内(从首页点击到该url的层次);url中要包含关键词;

六,网站内链优化

 网站链接:文字链接、图片链接

2.内链(站内链接)的作用:让蜘蛛更有效的爬行网站,增加网站收录;控制网站内部权重传递,提升关键词排名;增加用户体验;

3.内链建设原则:保证每个页面都至少有一个文本链接指向;

4.内链建设:网站导航、面包屑导航、版块文章链接、文章页面链接、网站地图、TAG页面(标签)、

5.内链建设技巧:内链url唯一性、锚文字对应url的唯一性(一个锚文本只能对应一个url,但一个url可以对应多个锚文本);相同页面url的唯一性;相关性(与文章title、内容相关联);内链数量不要过多,导出越多权重越低;内容页

链接建议使用相对路径;

6.内链的管理:中小型网站,使用内链url对应库,大型网站使用程序;定期检查内链,是否存在死链;尽量避免使用js、flash和图片

七,网站外链的建设技巧

类型:纯文本外链、锚文本外链、图片外链

2.作用:投票(纯文本外链没有投票权)、推荐、引流

3.建设:论坛、网址导航、文库、分类信息、问答、商铺、视频、博客、网盘、收藏夹、友链、SNS

4.技巧:相关性、权威性、稳定性、锚文本、多样性、发布频率(循序渐进)、广泛性

5.雷区:链接买卖、群发外链

八,内容的创建与优化

内容创建方法:复制、伪原创、原创、仿写

2.提高文章收录:时效性、段落清晰、语义通顺、图文并茂、原创内容

3.更新:数量没有限制,频率循序渐进,频率和数量要稳定增长

4.保护原创:百度推送插件、提交网站地图、添加自动推送js代码

九,网站日志分析

http状态码:用以表示网页服务器http响应状态的3位数字代码(暗号)。

2.http状态码对照表:200(正常返回)、301(重定向)、304(页面未修改)、404(无法访问)、500(服务器错误)、503(服务器不可用)

3.截获暗号可以知道:蜘蛛爬行有没有遇到404;蜘蛛有没有来爬行网站;为什么爬行两个页面都来爬行了,收录情况不一样;为什么蜘蛛总是爬行某一个栏目;蜘蛛爬行网站的轨迹;

4.日志分析:软件分析和手工分析

十,友情链接交换技巧

选择方法:权重、参与排名的关键词数量、建站时间、索引量、外链质量与数量

2.交换渠道:QQ群、站长论坛、友情链接交换平台、友情链接交换软件(换链神器)

十一,robots.txt详解

robots协议(爬虫协议、机器人议):网络爬虫排除标准,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取;

2.robots协议作用:提高爬行效率;减少带宽消耗;防止双收录;提交网站地图

3.如何设置:robots.txt文件名必须全部小写;robots.txt必须放在网站根目录下

4.User-agent:用来表示搜索引擎的名字;User-agent: Baiduspider,用来表示百度蜘蛛,User-agent: *用来表示所有,冒号后面有一个空格

5. Disallow:用来禁止收录;Disallow: /,禁止收录所有页面;Disallow: /user/login.html,禁止收录某个页面;Disallow: /temp/,禁止收录某一个目录;Disallow: *?*,禁止收录动态页面;Disallow: /user/*.html,禁止收录user目

录下所有html页面;Disallow: /user/ps*,禁止收录user目录下所有ps开头的文件;Disallow: /adm*,如果网站后台为admin,表示禁止收录网站后台

6.Allow:用来允许收录;Allow:/,允许收录网站所有页面;Allow:.jpg$,用来表示允许收录jpg文件后缀

7.Sitemap:提交地图,必须用绝对路径。Sitemap: https://www.tioo.net/sitemap.xml

8.检测:https://ziyuan.baidu.com/robots/index

十二,移动站的优化技巧:

基础优化:推荐使用H5;网站分辨率自适应,不用有横向滚动条;不要使用flash;不要做任何的弹窗和漂浮广告;点击链接区域的间距要明显;页面的大小控制在50k左右;服务器加载速度小于3秒;pc端和移动端分开的,要做好适

配;尽量使用规则适配,并且提交到站长平台

2.域名选择技巧:推荐使用m开头或者wap开头的二级域名,不推荐二级目录或者三级目录为访问域名

3.TDK优化:标题不要超过17个汉字;标题中要包含品牌词;TDK每个页面尽量不要重复

4.结构优化:网站目录不能太深;url尽量要简短;面包屑导航要清晰

十三,网站降权与恢复

降权:site域名不在首页;关键词出现大面积下降,同时网站流量出现下降;网站收录停滞,或大范围下降;搜索品牌词无排名;

2.被K:site无数据,降权不等于被K,

3.被降权因素:包括站内操作(频繁改版、网站死链过多、网站内容质量低、重复url过多、内容农场或链接农场、服务器不稳定、链接买卖)和站外操作(群发低质量外链、点击作弊)

4.降权类型:部分降权(首页降权、栏目页降权、内容页降权)和完全降权

5.网站降权与恢复:分析网站、修改网站、等待恢复;30-60天恢复,最长90天;被k:无期

阅读延展