二维码应用.静态URL对蜘蛛有一定的抵抗力

QR Code application. Static URL somewhat resistant to spiders?

本文关键字:抵抗力 URL 二维 静态 应用      更新时间:2023-09-26

我正在实现一个应用程序来创建QR码,将在纸质媒体上打印。该应用程序是在Perl和我成功地生成代码。(顺便说一句,使用GD::Barcode::QRCode)铅管夹紧…)

QR码将包含一个静态URL。目标扫描器将是移动设备上的任何QR码阅读器。"服务器"就是任何一个web服务器。我的应用程序生成的代码包含一个链接到一个众所周知的类型文件(vCard或vCalendar),该文件位于服务器上的变量目录:例如http://www.server.com/dir[XYZ]

由于QR码是打印的,所以URL需要是静态的。

我知道X-Robots-Tag: no index和放置robot.txt文件。虽然这可能会阻止谷歌,但我不确定其他蜘蛛是否会尊重这些标签。Spammer的蜘蛛,我无法想象。

背景:

这个应用程序允许打印材料链接到网络上的动态元素。大多数QR阅读器(Android, i-nigma, QRReader等)将正确处理vCard或vCalendar下载。虽然我可以将vCard或vCalendar的数据直接嵌入到QR码中,但最好将该文件放在web服务器上,并在QR码中提供该文件的URL。虽然文件不需要是安全的,但我不希望它们成为垃圾邮件发送者的奶酪。

我知道,如果有人输入http://www.myurl.com/random_string,那里的数据元素可以下载。这不是一个问题。我不想要用户确认或身份验证(除非这是客户端的行为)。当URL被访问和处理时,只需将目录中的文件下载到web客户端,如果客户端知道如何处理它。

如果我有http://www.myserver.com/randomXYZ没有其他链接到互联网上的URL,蜘蛛如何找到它?我能在静态URL中使用Javascript来实现这个吗?是否有一种方法(我目前没有看到)可以使静态URL在某种程度上抵抗蜘蛛和机器人?

我不能肯定地说这将保证您的文件不受蜘蛛的影响,但我建议您查看以下网站,该网站概述了目录权限的工作原理。

http://ag.arizona.edu/ecat/web/permissions.html

目录权限可以被限制,所以访问文件必须通过服务器端请求,例如(php) include, require.

当然,和任何网站一样,如果有人想从你的网站上得到什么,并投入足够的时间,他们就会得到它。

您可以将基本身份验证嵌入到链接中:

http://username: password@www.foo.com