当前位置: 首页 > 知识库问答 >
问题:

使用scp将文件复制到Amazon EC2实例?

薄高懿
2023-03-14

我正试图使用我的Mac终端将一个文件从下载(我在线下载的phpMyAdmin)scp到我的Amazon EC2实例。

scp -i myAmazonKey.pem phpMyAdmin-3.4.5-all-languages.tar.gz  hk22@mec2-50-17-16-67.compute-1.amazonaws.com:~/.
scp -i /Users/Hello_Kitty22/Downloads/myAmazonKey.pem /Users/Hello_Kitty22/Downloads/phpMyAdmin-3.4.5-all-languages.tar.gz  hk22@mec2-50-17-16-67.compute-1.amazonaws.com:~/.

谁能告诉我如何解决我的问题吗?

附言。有一个类似的帖子:scp(安全副本)到ec2实例没有密码,但它没有回答我的问题。

共有1个答案

裘光启
2023-03-14

尝试将用户指定为ec2-user

scp -i myAmazonKey.pem phpMyAdmin-3.4.5-all-languages.tar.gz ec2-user@mec2-50-17-16-67.compute-1.amazonaws.com:~/.

请参见使用SSH连接到Linux/UNIX实例。

 类似资料:
  • 如何使用将文件夹从远程复制到本地主机? 我使用登录我的服务器。 然后,我要将远程文件夹复制到本地。 我如何实现这一点?

  • 我正在尝试用SCP复制本地网络中的文件。它在没有空格的文件名中工作得很好,但在使用时会崩溃。我试着把“”替换成“\”作为这个例子,但它不起作用。下面是我的代码: 如何修复此问题?谢谢

  • 我想将文件salesjan2009.csv(存储在本地文件系统中,~/input/salesjan2009.csv)复制到HDFS(Hadoop分布式文件系统)主目录中 我编写了这段代码hduser@ubuntu:/usr/local/hadoop$hdfs dfs-copyfromlocal'/home/hduser/desktop/input/salesjan2009.csv'/hdfs-pa

  • 我有一个,其中我将现有目录(包含内容)复制到工作正常的容器: Dockerfile 但当我使用文件中只有目录,而在中没有任何内容。 docker-compose.yml: 也许我不明白的功能,如果是这种情况,请告诉我如何通过文件将现有文件复制到容器。

  • 我正在使用docker容器来编译一段代码,我不一定要将其docker化。我已使用必要的构建工具设置了一个映像,但我希望以某种方式将编译后的文件从容器中取出,而无需使用docker cp container:/file host/file命令。换句话说,我希望自动化这个过程,以便在构建完成后,将生成的文件复制到主机。 Dockerfile

  • 我有一个路由,期望各种文件将被复制到一个传入文件夹。路由将继续将这些文件移动到一个临时文件夹中,并在其中执行其他操作。路线如下: 问题是这些文件可能相当大。假设是1GB。为了将这个文件复制到传入文件夹中,可能需要10秒的时间。在这10秒期间,使用者轮询目录,并抛出一个异常,因为部分文件仍在复制。我能用什么变通办法?