如何从网站url获取图像并将所有图像存储在PC中的文件夹中

How to fetch image from Website url and store all images in folder in PC?

本文关键字:图像 存储 PC 文件夹 网站 url 获取      更新时间:2023-09-26

你好,我想从网站上的这个url获取所有图像http://www.thesmokingtire.com/wp-content/uploads/并将其存储在我的D驱动器上,如D://

我该怎么做?

我试了一些类似下面的东西,我在这里搜索了一下,但它不起作用,请帮帮我。

<html>
<script src="http://ajax.googleapis.com/ajax/libs/jquery/1.11.0/jquery.min.js"></script>
<script>
var dir = "http://www.thesmokingtire.com/wp-content/uploads/";
var fileextension = ".jpg";
$.ajax({
    //This will retrieve the contents of the folder if the folder is configured as 'browsable'
    url: dir,
    success: function (data) {
        //Lsit all png file names in the page
        $(data).find("a:contains(" + fileextension + ")").each(function () {
            var filename = this.href.replace(window.location.host, "").replace("http:///", "");
            $("body").append($("<img src=" + dir + filename + "></img>"));
        });
    }
});
</script>
<body>
</body>
</html> 

是,正如注释部分所建议的那样。

用于从网站url下载图像。我们不必总是使用ajax请求。

在这种情况下,wget命令应该会有所帮助。

wget -r http://sample.url.com
  • Wget是一个免费的网络实用程序,可以使用HTTP和FTP这两种最广泛使用的互联网协议从万维网检索文件。它以非交互方式工作,因此在注销后可以在后台工作

  • 支持HTML页面和FTP站点的递归检索——您可以使用Wget制作档案和主页的镜像,或者像WWW机器人一样遍历网络(Wget理解/arobots.txt)

  • Wget在慢速或不稳定的连接上运行得非常好,可以一直获取文档,直到完全检索到为止。从它停止的地方重新获取文件在支持它的服务器(HTTP和FTP)上有效。通过FTP检索时,可以使用通配符匹配和目录的递归镜像。HTTP和FTP检索都可以带有时间戳,因此Wget可以查看远程文件自上次检索以来是否发生了更改,并自动检索新版本(如果有)。

  • Wget支持代理服务器,可以减轻网络负载,加快检索速度,并提供防火墙后的访问。如果您在需要使用socks样式网关的防火墙后面,则可以获得socks库并编译支持socks的wget。

  • 大多数功能都是可配置的,可以通过命令行选项,也可以通过初始化文件进行配置。Wget允许您为站点设置安装全局启动文件(默认情况下为etc/wgetrc)。

wget命令的文档。