虽然 OpenAI 的爬虫在很多情形下可以供应有益的做事,但对付某些网站所有者来说,对这些爬虫进行限定或阻挡可能是必要的。OpenAI 的 ChatGPT 利用爬虫程序来抓取网站,但如果您是网站所有者,并且您不肯望 OpenAI 的爬虫程序访问您的网站,您可以采纳以下一些方法来阻挡它。
本文将先容一些有效的方法,帮助您保护自己的网站免受 OpenAI 爬虫的抓取。
OpenAI

网络爬虫(也称为蜘蛛或搜索引擎机器人)是一种扫描互联网以获取信息的自动化程序。 然后,它会以一种便于搜索引擎访问的办法编译该信息。
网络爬虫会对每个干系 URL 的每个页面进行索引,常日侧重于与您的搜索查询更干系的网站。 例如,假设您正在谷歌搜索特定的 Windows 缺点。 搜索引擎中的网络爬虫将扫描它认为在 Windows 缺点主题上更威信的网站中的所有 URL。
OpenAI 的网络爬虫称为 GPTBot,根据 OpenAI 的文档,让 GPTBot 访问您的网站可以帮助演习 AI 模型变得更安全、更准确,乃至可以帮助扩展 AI 模型的功能。
如何防止 OpenAI 抓取您的网站与大多数其他网络爬虫一样,可以通过修正网站的 robots.txt 协议(也称为机器人打消协议)来阻挡 GPTBot 访问您的网站。 此 .txt 文件托管在网站的做事器上,它掌握网络爬虫和其他自动化程序在您的网站上的行为办法。
以下是 robots.txt 文件功能的简短列表:
它可以完备阻挡 GPTBot 访问网站。它只能阻挡 GPTBot 访问 URL 中的某些页面。它可以见告 GPTBot 它可以跟踪哪些链接,不能跟踪哪些链接。以下是掌握 GPTBot 在您的网站上可以实行的操作的方法:
完备阻挡 GPTBot 访问您的网站1、设置 robots.txt 文件,然后利用任何文本编辑工具对其进行编辑。
2、将 GPTBot 添加到您网站的 robots.txt,如下所示:
1 User-agent: GPTBot2 Disallow: /
仅阻挡 GPTBot 访问某些页面
1、设置 robots.txt 文件,然后利用您喜好的文本编辑工具对其进行编辑。
2、将 GPTBot 添加到您网站的 robots.txt,如下所示:
1 User-agent: GPTBot2 Allow: /directory-1/3 Disallow: /directory-2/
但是,请记住,变动 robots.txt 文件不是追溯办理方案,GPTBot 可能已从您的网站网络的任何信息都将无法规复。
OpenAI 许可网站所有者选择不进行抓取自从爬虫被用来演习人工智能模型以来,网站所有者一贯在探求保持数据私密性的方法。
一些人担心人工智能模型基本上盗取了他们的事情成果,乃至将网站访问量减少归因于现在用户无需访问其网站即可获取信息。
总而言之,是否要完备阻挡人工智能谈天机器人扫描您的网站完备取决于您的选择。