SEO(Search Engine Optimization),中文翻译成搜索引擎优化,是指通过采取易于搜索引擎索引的合理手段,使网站各项基本要素适宜搜索引擎的检索原则并且对用户更友好,从而更随意马虎被搜索引擎收录及优先排序
发展史SEO在海内起步比较晚,紧张经历了四个发展阶段:
通过总结搜索引擎的收录和排名规律,对网站进行合理优化,使你的网站在百度及其他搜索引擎网站的搜索结果排名提高。

何谓 TDK?做前真个同学也都该当对它们熟稔于心:<title>标签、<meta name="description"> 标签和 <meta name="keywords"> 标签。顾名思义,它们分别代表当前页面的标题、内容择要和关键词,对付 SEO 来说,title是个中最主要的一员。
<title>标签从用户的角度来看,它的值即用户在搜索引擎搜索结果中以及浏览器标签页中看到的标题,如下图:
title常日由当前页面的标题加几个关键词组成,同时力求简洁明了。总之,用最少的字让别人知道你接下来要说啥,掌握在 40 字以内。比如:
<title>【转转】二手交易网,二手手机交易网,58闲置交易APP,转转客服</title>
好的 title 不仅让用户知道该页面要讲什么东西,提前判断有没有我须要的内容,对付搜索引擎也同样如此。以是,设置 title 时不但要把稳以上几点,更主要的是,不要重复!
它常日不参与搜索引擎的收录及排名,但它会成为搜索引擎在搜索结果页中展示网页择要的备选目标之一,当然也可能选取其他内容,比如网页正文开头部分的内容。以 title 部分的示例图对应的页面为例,它的 description 对应的内容是这样的:
<meta name="description" content="58同城“转转”为二手买卖双方供应快人一步的闲置交易平台,包管交易,微信支付,30秒发布,3天脱手,让您随时随地买个便宜,下载转转APP,快速脱手赚的更多!转转官方客服请联系微信公众年夜众号,转转暂未开通客服电话,请不要相信假冒转转的客服电话。">
可以看到,正是搜索结果择要显示的内容。
有鉴于此, description的值要尽可能表述清楚页面的内容,从而让用户更清楚的认识到即将前往的页面是否对他有代价。同时字数最好掌握在 80 - 100 字以内,各页面间不要重复!
<meta name="keywords" content="转转,二手闲置,二手交易网,二手手机交易网,转转APP下载,转转客服">它紧张为搜索引擎供应当前页面的关键词信息,关键词之间用英文逗号间隔,常日建议三五个词就足够了,表达清楚该页面的关键信息,建议掌握在 50 字以内。切忌大量堆砌关键词!
SEO 三剑客 “TDK” 都属于元信息标签。元信息标签即用来描述当前页面 HTML 文档信息的标签们,与语义化标签相对,它们常日不涌如今用户的视野中,以是,只是给机器看的信息,比如浏览器、搜索引擎等
meta:robots 标签撇开 “TDK”,个中与 SEO 干系的有一个 <meta name="robots"> 标签(常日含有 name 属性的 meta 标签都会有一个 content 属性相伴,这我们已经在 D 和 K “剑客”身上领略过了)。默认的,有这样的标签属性设置:<meta name="robots" content="index,follow,archive">。它跟上文中提到的带有 rel 属性的 a 标签略有相似。
CONTENT含义INDEX许可抓取当前页面NOINDEX不许抓取当前页面FOLLOW许可从当前页面的链接向下爬行NOFOLLOW不许从当前页面的链接向下爬行ARCHIVE许可天生快照NOARCHIVE不许天生快照
通过以上三组值的相互组合,可以向搜索引擎表达很多有用的信息。比如,对付一个博客站来说,其文章列表页实在对付搜索引擎收录来说没什么意义,但又不得不通过列表页去爬取收录详细的文章页面,于是可以作如下考试测验:
<meta name="robots" content="index,follow,noarchive">
canoncial 和 alternate 标签
还有一组标签是含有 rel 属性的 <link rel="" href="">标签,它们分别是:
<link rel="canoncial" href="https://www.zhuanzhuan.com" /><link rel="alternate" href="https://m.zhuanzhuan.com" />
先来看 canoncial 标签。当站内存在多个内容相同或相似的页面时,可以利用该标签来指向个中一个作为规范页面。要知道,不但是主路由不同,即便是 http 协议不同(http/https)、查询字符串的眇小差异,搜索引擎都会视为完备不同的页面/链接。假如有很多这种雷同页面,其权重便被无情稀释了。比如文章列表页有很多个,比如同一个商品页面的链接含有不同的业务参数等。往后者为例,假设有如下链接:
www.zhuanzhuan.com/goods/xxxxwww.zhuanzhuan.com/goods/xxxx?…www.zhuanzhuan.com/goods/xxxx?…此时我们可以为后两者在 head 中添加 link 标签:
<link rel="canoncial" href="www.shop.com/goods/xxxx" />
以此彰显第一个链接的正统地位,见告搜索引擎,其他那俩都是“庶出”,不必在意。如果搜索引擎遵守该标签的约定,则会很大程度避免页面权重的分散,不至影响搜索引擎的收录及排名情形。它的含义与 http``301 永久重定向相似,不同之处在于,用户访问标记了 canonical 标签的页面并不会真的重定向到其他页面。
再来看 alternate 标签。如果你为移动端和 pc 端设备分别供应了单独的站点,这个标签或许能派上用场。有两个链接如下:
https://www.zhuanzhuan.comhttps://m.zhuanzhuan.com它们分别是转转网站首页的 pc 端和移动端,于是就可以在它们的 head 标签中供应如下标签,标志其相互对应的关系:
<link rel="canoncial" href="https://www.zhuanzhuan.com" /><link rel="alternate" href="https://m.zhuanzhuan.com" media="only screen and (max-width: 750px)"/>
前者放在移动真个页面中,表示 pc 端页面大哥马首是瞻;后者则放在 pc 端对应的页面中,表示当屏幕尺寸小于 750px 的时候,就该当我移动端页面小弟上场做事了!
robots.txt 文件由一条或多条规则组成。每条规则可禁止(或许可)特定抓取工具抓取相应网站中的指定文件路径。普通一点的说法便是:见告爬虫,我这个网站,你哪些能看,哪些不能看的一个协议。
为什么要利用 robots.txt搜索引擎(爬虫),访问一个网站,首先要查看当前网站根目录下的robots.txt,然后依据里面的规则,进行网站页面的爬取。也便是说,robots.txt起到一个基调的浸染,也可以说是爬虫爬取当前网站的一个行为准则。那利用robots.txt的目的,就很明确了。
更好地做定向SEO优化,重点曝光有代价的链接给爬虫将敏感文件保护起来,避免爬虫爬取收录robots.txt的示例如下:
# first groupUser-agent: BaiduspiderUser-agent: GooglebotDisallow: /article/# second groupUser-agent: Disallow: /Sitemap: https://www.xxx.com/sitemap.xml
以上:
许可百度和谷歌的搜索引擎访问站内除 article 目录下的所有文件/页面(eg: article.html 可以,article/index.html 不可以);不许可其他搜索引擎访问网站;指定网站舆图所在。如果你许可整站都可以被访问,则可以不在根目录添加 robots 文件
文件规范文件格式和命名文件格式为标准 ASCII 或 UTF-8文件必须命名为 robots.txt只能有 1 个 robots.txt 文件文件位置 必须位于它所运用到的网站主机的根目录下常用的关键字User-agent:网页抓取工具的名称Disallow:不应抓取的目录或网页Allow:应抓取的目录或网页Sitemap:网站的站点舆图的位置React & Vue 做事器渲染对SEO友好的SSR框架React(Next.js):
https://www.nextjs.cnhttps://github.com/vercel/next.jsVue(Nuxt.js):
https://www.nuxtjs.cnhttps://github.com/nuxt/nuxt.js结束语精确认识SEO,不过分追求SEO,网站还是以内容为主。
供应一个常用的SEO综合查询的地址(http://seo.chinaz.com),感兴趣的可以去理解下。
参考文章https://juejin.cn/post/6844904029923835911
https://www.sohu.com/a/320507630_120165202