docker操作Dockerfile构建镜像docker

您所在的位置:网站首页 docker一个镜像多个容器 docker操作Dockerfile构建镜像docker

docker操作Dockerfile构建镜像docker

#docker操作Dockerfile构建镜像docker| 来源: 网络整理| 查看: 265

docker 一.基本命令

选择宝塔你没错

1.安装docker

可以直接通过宝塔安装或者yum -y install docker

linux配置yum源

2.查看是否安装成功 docker --version 3.删除容器镜像 docker rmi image_id 4.搜索镜像 docker search mysql 5.下载镜像 docker pull mysql:5.7 5.查看容器镜像 docker images 6.查看运行的容器 docker ps // 查看所有运行容器 docker ps -a 7.启动容器 # 简单启动 # 没有映射文件,所以只能一次性使用,重启后数据都没了 #映射端口 取个名称 设置密码 msyql版本 docker run -p 3306:3306 --name mysql02 -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7 #加载指定本地的配置文件和数据目录 docker run -d -p 3306:3306 -v /root/docker/mysql/conf:/etc/mysql/conf.d -v /root/docker/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 mysql docker run -d -p 3307:3306 --name test-mysql --privileged=true -v /root/docker/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=root mysql --character-set-server=utf8mb4 --collation-server=utf8mb4_unicode_ci # redis docker run -p 6379:6379 --name redis -v /root/docker/redis/conf/redis.conf:/etc/redis/redis.conf -v /root/docker/redis/data:/data -d redis redis-server /etc/redis/redis.conf --appendonly yes #zk docker run -p 2181:2181 --name zk -d zookeeper 参数说明 -p 6380:6380 端口映射:前表示主机部分,:后表示容器部分。–name myredis 指定该容器名称,查看和进行操作都比较方便。-v 挂载目录,规则与端口映射相同。-d redis 表示后台启动redisredis-server /etc/redis/redis.conf 以配置文件启动redis,加载容器内的conf文件,最终找到的是挂载的目录/usr/local/docker/redis.confappendonly yes 开启redis 持久化 8.进入容器 docker exec -it mysql1(容器名称) bash 9.主机拷贝容器中的文件 docker cp 容器id:容器文件路径 主机路径 docker cp zk:/apache-zookeeper-3.7.0-bin/README.md /root 10.容器挂载 具名挂载 # 挂载民 容器路径 docker run -d -p 3306:3306 -v mysql-conf:/etc/mysql/conf.d -v mysql-data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 mysql 匿名挂载 # 容器路径 docker run -d -p 3306:3306 -v /etc/mysql/conf.d -v /var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 mysql 路径挂载 docker run -d -p 3306:3306 -v /root/docker/mysql/conf:/etc/mysql/conf.d:ro -v /root/docker/mysql/data:/var/lib/mysql:rw -e MYSQL_ROOT_PASSWORD=123456 mysql ro

表示readonly 只读

rw

表示readwrite 只写

多个容器之间的数据共享 docker run -d -p 3306:3306 --volumes-from 父容器 -e MYSQL_ROOT_PASSWORD=123456 mysql 11.导出镜像 docker save 镜像名 -o /root/fasfas 12.导入镜像 docker load -i /root/fasfas 13.查看docker的网络配置 docker network ls

14.查看具体网络配置

docker network inspect 容器id 二.DockerFile

构建步骤

1.编写一个DockerFile文件

2.执行命令docker build 构建一个镜像

3.docker push 发布镜像

DockerFile指令

FROM 基础镜像,

MAINTAINER 镜像是谁写的

RUN 构建需要运行的命令

ADD 步骤,添加内容

WORKDIR 工作目录

VOLUME 挂载目录

EXPOSE 暴露端口

CMD 执行这个容器运行的命令

ENTTRYPOINT执行这个容器运行的命令

CMD 和 ENTTRYPOINT的区别是:CMD追加命令的同时是直接替换命令,而ENTTRYPOINT是往后追加命令

三.镜像发布阿里云 登录阿里云Docker Registry $ docker login --username=dingtalk_rt**** registry.cn-hangzhou.aliyuncs.com

用于登录的用户名为阿里云账号全名,密码为开通服务时设置的密码。

您可以在访问凭证页面修改凭证密码。

从Registry中拉取镜像 $ docker pull registry.cn-hangzhou.aliyuncs.com/yiran-test/my-tomcat:[镜像版本号] 将镜像推送到Registry $ docker login --username=dingtalk_rt**** registry.cn-hangzhou.aliyuncs.com$ docker tag [ImageId] registry.cn-hangzhou.aliyuncs.com/yiran-test/my-tomcat:[镜像版本号]$ docker push registry.cn-hangzhou.aliyuncs.com/yiran-test/my-tomcat:[镜像版本号] 四.docker网络

docker默认的网络模式

bridge桥接模式

host主机模式

none不配置网络

[root@localhost ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 3e0864d5673f bridge bridge local 9f91c5a92079 host host local 99f44d0b1e54 none null local 1.创建一个网卡 # 网卡类型 子网掩码 网关 docker network create --driver bridge --subnet 192.168.0.0/24 --gateway 192.168.0.1 mynet 2.查看网卡 [root@localhost ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 3e0864d5673f bridge bridge local 9f91c5a92079 host host local 3aea410fbdf9 mynet bridge local 99f44d0b1e54 none null local

好处:集群中使用新建的网卡可以通过容器名称相互ping通

3.网络连通

打通容器与网卡之间,而不是网卡与网卡之间

# 将容器tomcat1加入到mynet网络中 docker network connect mynet tomcat1 五.搭建redis集群

1.创建redis的网卡

docker network create --subnet 172.172.0.0/24 redis

2.通过shell脚本编写redis配置文件

for port in $(seq 1 6); do mkdir -p /root/docker/redis/node-${port}/conf touch /root/docker/redis/node-${port}/conf/redis.conf cat >> Performing hash slots allocation on 6 nodes... Master[0] -> Slots 0 - 5460 Master[1] -> Slots 5461 - 10922 Master[2] -> Slots 10923 - 16383 Adding replica 172.172.0.15:6379 to 172.172.0.11:6379 Adding replica 172.172.0.16:6379 to 172.172.0.12:6379 Adding replica 172.172.0.14:6379 to 172.172.0.13:6379 M: 41add2d3afe5d67196f144a02e61d5414b37c1ba 172.172.0.11:6379 slots:[0-5460] (5461 slots) master M: 3c5f279f317a6e4ec63faa685a6c00f369c2fea0 172.172.0.12:6379 slots:[5461-10922] (5462 slots) master M: 5598f35b128c1bbb9828d9e8e7e30bbe629c3d88 172.172.0.13:6379 slots:[10923-16383] (5461 slots) master S: ac45135484bac877ecdfe465ea3433e62349dfa4 172.172.0.14:6379 replicates 5598f35b128c1bbb9828d9e8e7e30bbe629c3d88 S: 08f37d28c6abfb6cdb656d06181d65fdd79951ea 172.172.0.15:6379 replicates 41add2d3afe5d67196f144a02e61d5414b37c1ba S: cf8ff99ee8f55df684ced5757ba01f2c476f0841 172.172.0.16:6379 replicates 3c5f279f317a6e4ec63faa685a6c00f369c2fea0 Can I set the above configuration? (type 'yes' to accept): yes 六.docker compose

compose是docker官方开源的项目,需要安装

定义,运行多个容器

三步骤

1.编写DockerFile

2.编写docker-compose.yml

3.运行docker-compose up

​ 不显示日志 docker-compose up -d

# docker-compose编排容器 # @auth yiran # @date 2022-0808 version: '3' services: mysql: image: mysql privileged: true ports: - '3307:3306' environment: TZ: Asia/Shanghai MYSQL_ROOT_PASSWORD: root command: --character-set-server=utf8mb4 --collation-server=utf8mb4_general_ci volumes: - /root/docker/mysql/logs:/var/log/mysql - /root/docker/mysql/conf.d:/etc/mysql/conf.d - /root/docker/mysql/data:/var/lib/mysql container_name: "dev-mysql" 1.安装docker-compose curl -L https://get.daocloud.io/docker/compose/releases/download/1.24.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose chmod +x /usr/local/bin/docker-compose docker-compose --version # 卸载 rm -rf /usr/local/bin/docker-compose 2.详细yml文件 Compose和Docker兼容性: Compose 文件格式有3个版本,分别为1, 2.x 和 3.x 目前主流的为 3.x 其支持 docker 1.13.0 及其以上的版本 常用参数: version # 指定 compose 文件的版本 services # 定义所有的 service 信息, services 下面的第一级别的 key 既是一个 service 的名称 build # 指定包含构建上下文的路径, 或作为一个对象,该对象具有 context 和指定的 dockerfile 文件以及 args 参数值 context # context: 指定 Dockerfile 文件所在的路径 dockerfile # dockerfile: 指定 context 指定的目录下面的 Dockerfile 的名称(默认为 Dockerfile) args # args: Dockerfile 在 build 过程中需要的参数 (等同于 docker container build --build-arg 的作用) cache_from # v3.2中新增的参数, 指定缓存的镜像列表 (等同于 docker container build --cache_from 的作用) labels # v3.3中新增的参数, 设置镜像的元数据 (等同于 docker container build --labels 的作用) shm_size # v3.5中新增的参数, 设置容器 /dev/shm 分区的大小 (等同于 docker container build --shm-size 的作用) command # 覆盖容器启动后默认执行的命令, 支持 shell 格式和 [] 格式 configs # 不知道怎么用 cgroup_parent # 不知道怎么用 container_name # 指定容器的名称 (等同于 docker run --name 的作用) credential_spec # 不知道怎么用 deploy # v3 版本以上, 指定与部署和运行服务相关的配置, deploy 部分是 docker stack 使用的, docker stack 依赖 docker swarm endpoint_mode # v3.3 版本中新增的功能, 指定服务暴露的方式 vip # Docker 为该服务分配了一个虚拟 IP(VIP), 作为客户端的访问服务的地址 dnsrr # DNS轮询, Docker 为该服务设置 DNS 条目, 使得服务名称的 DNS 查询返回一个 IP 地址列表, 客户端直接访问其中的一个地址 labels # 指定服务的标签,这些标签仅在服务上设置 mode # 指定 deploy 的模式 global # 每个集群节点都只有一个容器 replicated # 用户可以指定集群中容器的数量(默认) placement # 不知道怎么用 replicas # deploy 的 mode 为 replicated 时, 指定容器副本的数量 resources # 资源限制 limits # 设置容器的资源限制 cpus: "0.5" # 设置该容器最多只能使用 50% 的 CPU memory: 50M # 设置该容器最多只能使用 50M 的内存空间 reservations # 设置为容器预留的系统资源(随时可用) cpus: "0.2" # 为该容器保留 20% 的 CPU memory: 20M # 为该容器保留 20M 的内存空间 restart_policy # 定义容器重启策略, 用于代替 restart 参数 condition # 定义容器重启策略(接受三个参数) none # 不尝试重启 on-failure # 只有当容器内部应用程序出现问题才会重启 any # 无论如何都会尝试重启(默认) delay # 尝试重启的间隔时间(默认为 0s) max_attempts # 尝试重启次数(默认一直尝试重启) window # 检查重启是否成功之前的等待时间(即如果容器启动了, 隔多少秒之后去检测容器是否正常, 默认 0s) update_config # 用于配置滚动更新配置 parallelism # 一次性更新的容器数量 delay # 更新一组容器之间的间隔时间 failure_action # 定义更新失败的策略 continue # 继续更新 rollback # 回滚更新 pause # 暂停更新(默认) monitor # 每次更新后的持续时间以监视更新是否失败(单位: ns|us|ms|s|m|h) (默认为0) max_failure_ratio # 回滚期间容忍的失败率(默认值为0) order # v3.4 版本中新增的参数, 回滚期间的操作顺序 stop-first #旧任务在启动新任务之前停止(默认) start-first #首先启动新任务, 并且正在运行的任务暂时重叠 rollback_config # v3.7 版本中新增的参数, 用于定义在 update_config 更新失败的回滚策略 parallelism # 一次回滚的容器数, 如果设置为0, 则所有容器同时回滚 delay # 每个组回滚之间的时间间隔(默认为0) failure_action # 定义回滚失败的策略 continue # 继续回滚 pause # 暂停回滚 monitor # 每次回滚任务后的持续时间以监视失败(单位: ns|us|ms|s|m|h) (默认为0) max_failure_ratio # 回滚期间容忍的失败率(默认值0) order # 回滚期间的操作顺序 stop-first # 旧任务在启动新任务之前停止(默认) start-first # 首先启动新任务, 并且正在运行的任务暂时重叠 注意: 支持 docker-compose up 和 docker-compose run 但不支持 docker stack deploy 的子选项 security_opt container_name devices tmpfs stop_signal links cgroup_parent network_mode external_links restart build userns_mode sysctls devices # 指定设备映射列表 (等同于 docker run --device 的作用) depends_on # 定义容器启动顺序 (此选项解决了容器之间的依赖关系, 此选项在 v3 版本中 使用 swarm 部署时将忽略该选项) 示例: docker-compose up 以依赖顺序启动服务,下面例子中 redis 和 db 服务在 web 启动前启动 默认情况下使用 docker-compose up web 这样的方式启动 web 服务时,也会启动 redis 和 db 两个服务,因为在配置文件中定义了依赖关系 version: '3' services: web: build: . depends_on: - db - redis redis: image: redis db: image: postgres dns # 设置 DNS 地址(等同于 docker run --dns 的作用) dns_search # 设置 DNS 搜索域(等同于 docker run --dns-search 的作用) tmpfs # v2 版本以上, 挂载目录到容器中, 作为容器的临时文件系统(等同于 docker run --tmpfs 的作用, 在使用 swarm 部署时将忽略该选项) entrypoint # 覆盖容器的默认 entrypoint 指令 (等同于 docker run --entrypoint 的作用) env_file # 从指定文件中读取变量设置为容器中的环境变量, 可以是单个值或者一个文件列表, 如果多个文件中的变量重名则后面的变量覆盖前面的变量, environment 的值覆盖 env_file 的值 文件格式: RACK_ENV=development environment # 设置环境变量, environment 的值可以覆盖 env_file 的值 (等同于 docker run --env 的作用) expose # 暴露端口, 但是不能和宿主机建立映射关系, 类似于 Dockerfile 的 EXPOSE 指令 external_links # 连接不在 docker-compose.yml 中定义的容器或者不在 compose 管理的容器(docker run 启动的容器, 在 v3 版本中使用 swarm 部署时将忽略该选项) extra_hosts # 添加 host 记录到容器中的 /etc/hosts 中 (等同于 docker run --add-host 的作用) healthcheck # v2.1 以上版本, 定义容器健康状态检查, 类似于 Dockerfile 的 HEALTHCHECK 指令 test # 检查容器检查状态的命令, 该选项必须是一个字符串或者列表, 第一项必须是 NONE, CMD 或 CMD-SHELL, 如果其是一个字符串则相当于 CMD-SHELL 加该字符串 NONE # 禁用容器的健康状态检测 CMD # test: ["CMD", "curl", "-f", "http://localhost"] CMD-SHELL # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1 interval: 1m30s # 每次检查之间的间隔时间 timeout: 10s # 运行命令的超时时间 retries: 3 # 重试次数 start_period: 40s # v3.4 以上新增的选项, 定义容器启动时间间隔 disable: true # true 或 false, 表示是否禁用健康状态检测和 test: NONE 相同 image # 指定 docker 镜像, 可以是远程仓库镜像、本地镜像 init # v3.7 中新增的参数, true 或 false 表示是否在容器中运行一个 init, 它接收信号并传递给进程 isolation # 隔离容器技术, 在 Linux 中仅支持 default 值 labels # 使用 Docker 标签将元数据添加到容器, 与 Dockerfile 中的 LABELS 类似 links # 链接到其它服务中的容器, 该选项是 docker 历史遗留的选项, 目前已被用户自定义网络名称空间取代, 最终有可能被废弃 (在使用 swarm 部署时将忽略该选项) logging # 设置容器日志服务 driver # 指定日志记录驱动程序, 默认 json-file (等同于 docker run --log-driver 的作用) options # 指定日志的相关参数 (等同于 docker run --log-opt 的作用) max-size # 设置单个日志文件的大小, 当到达这个值后会进行日志滚动操作 max-file # 日志文件保留的数量 network_mode # 指定网络模式 (等同于 docker run --net 的作用, 在使用 swarm 部署时将忽略该选项) networks # 将容器加入指定网络 (等同于 docker network connect 的作用), networks 可以位于 compose 文件顶级键和 services 键的二级键 aliases # 同一网络上的容器可以使用服务名称或别名连接到其中一个服务的容器 ipv4_address # IP V4 格式 ipv6_address # IP V6 格式 示例: version: '3.7' services: test: image: nginx:1.14-alpine container_name: mynginx command: ifconfig networks: app_net: # 调用下面 networks 定义的 app_net 网络 ipv4_address: 172.16.238.10 networks: app_net: driver: bridge ipam: driver: default config: - subnet: 172.16.238.0/24 pid: 'host' # 共享宿主机的 进程空间(PID) ports # 建立宿主机和容器之间的端口映射关系, ports 支持两种语法格式 SHORT 语法格式示例: - "3000" # 暴露容器的 3000 端口, 宿主机的端口由 docker 随机映射一个没有被占用的端口 - "3000-3005" # 暴露容器的 3000 到 3005 端口, 宿主机的端口由 docker 随机映射没有被占用的端口 - "8000:8000" # 容器的 8000 端口和宿主机的 8000 端口建立映射关系 - "9090-9091:8080-8081" - "127.0.0.1:8001:8001" # 指定映射宿主机的指定地址的 - "127.0.0.1:5000-5010:5000-5010" - "6060:6060/udp" # 指定协议 LONG 语法格式示例:(v3.2 新增的语法格式) ports: - target: 80 # 容器端口 published: 8080 # 宿主机端口 protocol: tcp # 协议类型 mode: host # host 在每个节点上发布主机端口, ingress 对于群模式端口进行负载均衡 secrets # 不知道怎么用 security_opt # 为每个容器覆盖默认的标签 (在使用 swarm 部署时将忽略该选项) stop_grace_period # 指定在发送了 SIGTERM 信号之后, 容器等待多少秒之后退出(默认 10s) stop_signal # 指定停止容器发送的信号 (默认为 SIGTERM 相当于 kill PID; SIGKILL 相当于 kill -9 PID; 在使用 swarm 部署时将忽略该选项) sysctls # 设置容器中的内核参数 (在使用 swarm 部署时将忽略该选项) ulimits # 设置容器的 limit userns_mode # 如果Docker守护程序配置了用户名称空间, 则禁用此服务的用户名称空间 (在使用 swarm 部署时将忽略该选项) volumes # 定义容器和宿主机的卷映射关系, 其和 networks 一样可以位于 services 键的二级键和 compose 顶级键, 如果需要跨服务间使用则在顶级键定义, 在 services 中引用 SHORT 语法格式示例: volumes: - /var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的一个随机目录中 - /opt/data:/var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的 /opt/data - ./cache:/tmp/cache # 映射容器内的 /var/lib/mysql 到宿主机 compose 文件所在的位置 - ~/configs:/etc/configs/:ro # 映射容器宿主机的目录到容器中去, 权限只读 - datavolume:/var/lib/mysql # datavolume 为 volumes 顶级键定义的目录, 在此处直接调用 LONG 语法格式示例:(v3.2 新增的语法格式) version: "3.2" services: web: image: nginx:alpine ports: - "80:80" volumes: - type: volume # mount 的类型, 必须是 bind、volume 或 tmpfs source: mydata # 宿主机目录 target: /data # 容器目录 volume: # 配置额外的选项, 其 key 必须和 type 的值相同 nocopy: true # volume 额外的选项, 在创建卷时禁用从容器复制数据 - type: bind # volume 模式只指定容器路径即可, 宿主机路径随机生成; bind 需要指定容器和数据机的映射路径 source: ./static target: /opt/app/static read_only: true # 设置文件系统为只读文件系统 volumes: mydata: # 定义在 volume, 可在所有服务中调用 restart # 定义容器重启策略(在使用 swarm 部署时将忽略该选项, 在 swarm 使用 restart_policy 代替 restart) no # 禁止自动重启容器(默认) always # 无论如何容器都会重启 on-failure # 当出现 on-failure 报错时, 容器重新启动 其他选项: domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir 上面这些选项都只接受单个值和 docker run 的对应参数类似 对于值为时间的可接受的值: 2.5s 10s 1m30s 2h32m 5h34m56s 时间单位: us, ms, s, m, h 对于值为大小的可接受的值: 2b 1024kb 2048k 300m 1gb 单位: b, k, m, g 或者 kb, mb, gb networks # 定义 networks 信息 driver # 指定网络模式, 大多数情况下, 它 bridge 于单个主机和 overlay Swarm 上 bridge # Docker 默认使用 bridge 连接单个主机上的网络 overlay # overlay 驱动程序创建一个跨多个节点命名的网络 host # 共享主机网络名称空间(等同于 docker run --net=host) none # 等同于 docker run --net=none driver_opts # v3.2以上版本, 传递给驱动程序的参数, 这些参数取决于驱动程序 attachable # driver 为 overlay 时使用, 如果设置为 true 则除了服务之外,独立容器也可以附加到该网络; 如果独立容器连接到该网络,则它可以与其他 Docker 守护进程连接到的该网络的服务和独立容器进行通信 ipam # 自定义 IPAM 配置. 这是一个具有多个属性的对象, 每个属性都是可选的 driver # IPAM 驱动程序, bridge 或者 default config # 配置项 subnet # CIDR格式的子网,表示该网络的网段 external # 外部网络, 如果设置为 true 则 docker-compose up 不会尝试创建它, 如果它不存在则引发错误 name # v3.5 以上版本, 为此网络设置名称 文件格式示例: version: "3" services: redis: image: redis:alpine ports: - "6379" networks: - frontend deploy: replicas: 2 update_config: parallelism: 2 delay: 10s restart_policy: condition: on-failure db: image: postgres:9.4 volumes: - db-data:/var/lib/postgresql/data networks: - backend deploy: placement: constraints: [node.role == manager]


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3