译者 | 李睿 审校 | 重楼 本文解释了如何使用HashiCorp的何使堆栈构建一个安全的平台;许多步骤都有良好的文档记录。我们将详细强调最关键的用H缘基部分,解释在哪里发现问题以及如何解决问题,工具并在官方教程中保留参考资料,创建础设以防止本文过长且难以理解
。安全 如下图所示,何使我们想要实现的用H缘基物理架构由五个节点的Consul和Nomad集群组成
:其中三个是配置为高可用性(HA)的控制平台节点
,其余两个是工具数据平台节点 。源码下载 考虑到我们处于边缘环境,创建础设安装集群服务器的安全最终位置至关重要: 在默认情况下,用H缘基服务器的工具角色是维护集群的状态,而客户机则为物理上位于群集附近的创建础设用户提供服务。 在自动化和虚拟化时代,安全继续前进的方法是创建一个“测试并销毁”的源码库虚拟化环境,以便在进入生产环境之前尝试配置
,并在物理基础设施上部署所有内容。 DevOps工具箱由Ansible 、Terraform和Git等工具组成,在构建如此复杂的环境的过程中,它一直是一个严格的配置和流程要求 。Ansible Vault是我们的选择,以确保与特定环境相关的敏感内容(如密码 、云计算密钥、配置变量和引导令牌或TLS证书)受到保护和加密
,而不是以纯文本形式从我们存储用于构建基础设施的代码的Git存储库中可见。 我们首先创建五台虚拟机。对于测试使用了以下规范: 用户可以选择其喜欢的公共云提供商 ,在那里部署大量的虚拟机与Terraform 。或者,为了加快部署过程,可以使用VirtualBox和Vagrant在他们的笔记本电脑上创建它们,但最终 ,免费模板将得到一个与此类似的Ansible清单: 复制YAML 在这个引导阶段,开源Ansible社区提供了一个经过广泛测试的
、安全的公共剧本。得益于Ansible Galaxy实用程序
,我们可以提取两个角色的代码,分别部署Consul和Nomad。 我们将上述角色制作成一个专有的剧本,首先,使用虚拟网络接口配置和设置服务器网络。该接口映射到保留IP地址169.254.1.1,用于解析集群中的亿华云*.consol域名
,我们称其为dummy0接口。我们依靠Ansible在目标节点上配置它,最后,我们将在每台服务器上有以下文件:/etc/systemd/network/dummy0.network:: 复制Shell [Match] dummy0 [Network] .254.1.1/32 ~consul. 此外 ,公共剧本还在服务器上配置了一些基本的自定义
,比如更新操作系统、设置节点用户导入相关的SSH authorized_keys、安装容器运行时以及一些调试CLI工具。 最后
,应该通过设置适当的Ansible变量来注意配置Consul和Nomad角色
。它们的大多数名称是香港云服务器不言自明的,但是必须指定consul_version和nomad_version(在本例中分别为1.12.2和1.2.8)。三个客户机节点应该使用consul_node_role和nomad_node_role变量
,而其他节点应该使用服务器变量。另一个需要设置的有用变量是nomad_cni_enable:true
,否则
,将不得不人工在任何Nomad节点上安装CNI
。 通过这种方式,我们还能够以最小的工作量支持不同环境库存的快速供应和部署
,从生产裸服务器或边缘的cloudlet到在云中开发和测试虚拟机。 此时
,我们已经为Consul+Nomad集群做好了准备
,应该能够访问各自的用户界面(UI)并启动一些测试工作负载 。如果一切正常,那么就是配置Vault集群的时候了。为了简单起见
,它将被安装在运行Nomad和Consul控制平台的高可用性(HA)服务器节点上
。 如果是Vault初学者,可以从这里开始进行尝试,然后可以移动到Ansible Vault角色来安装这个组件,但是在进入剧本之前,需要一些人工步骤来为我们的Vault集群引导PKI。 如果企业提供现有的PKI配置
,可以依赖它。这里
,我们将从头开始 ,创建根证书(CA)颁发机构和证书
。 首先,创建根密钥(这是CA私钥,可用于签署证书请求),然后使用根密钥创建需要分发给所有必须信任客户端的根证书,可以根据需要调整-days标志的值
。 复制Shell 必须在提示符上自定义字段,例如,使用如下内容:C=IT, O=CompanyName, CN=company.com/emailAddress=example@company.com,并可选地检查根CA证书: 复制Shell 此时,我们需要为每个服务器、设备或应用程序创建证书,这些服务器、设备或应用程序需要通过CA信任的证书公开TLS加密的服务。在本例中
,我们将把该证书分配给Vault集群,因此将在每个Vault节点上使用相同的证书 。 复制Shell \ vault.key \ \ vault.csr 要完成这一过程,使用所有可选名称(可以是URL或IP)创建一个extfile;在本例中 ,使用每个Vault节点的IP
,然后使用CSR和密钥以及CA根密钥生成证书
。 复制Shell >> extfile.cnf serverAuth >> extfile.cnf 除其他次要文件外,现在应确保在当前工作文件夹中包含以下生成的文件: PKI文件必须通过专用变量传递给Ansible角色以及下面建议的一些其他配置,然后通过将Vault角色分配给服务器节点来启动Vault配置 。 复制YAML consul 如果使用自签名CA
,还需要一个步骤:必须将其复制并安装到每个节点中,可以通过以下方法轻松完成此任务: 复制Shell rootCA.crt /usr/local/share/ca-certificates/ 最后
,初始化Vault集群
,打开它
,使用初始化阶段返回的令牌登录,并检查它的状态;如果一切正常,那么转到下一个陷阱:在新的集群上启用和配置TLS
。 复制Shell vault operator init vault operator unseal vault login 在本节中,将详细介绍为在集群中运行的基础设施组件(例如Consul和Nomad代理)和应用程序容器启用安全集群通信的过程 。因此 ,我们将在mTLS验证之上 ,使用TLS加密和服务验证来保护Consul Agent通信。这可以使用从Vault集群生成的证书来完成;此外
,在本例中,证书将在服务器上通过Consul Template分发,在客户端通过自动加密方法分发
。 所有与证书更新和Consul、Nomad代理以及Vault之间的轮换相关的秘诀都掌握在Consul Template所需的组件中
。可以分享一下GitHub页面的参考,并简要地给一些关于如何安装和配置它的提示,因为到目前为止,在网上找不到完整的指南: 在每个集群节点的主节点中下载并解压缩二进制文件 复制Shell 在systemd的每个节点上创建单元文件
: 复制Shell 最后,将其提升为systemd下的系统服务,并为consul-template配置文件创建一个文件夹。 复制Shell \ Consul模板的主框架现在准备好了
。在接下来的步骤中,需要做的就是为每个请求证书轮换的服务创建配置文件和模板文件。 可以很容易地遵循下面的循序渐进的教程,这些教程非常详细,只需要针对具体情况进行微小而明显的调整
: 现在
,在继续Consul配置之前 ,我们需要启用和配置Consul Connect功能
,为此,我们首先需要启用Vault作为Consul Connect认证机构提供商:Consul Connect创建的服务网格网络中使用的证书将由Vault生成和管理。跳转到以下教程,并确保选择“自我管理”选项卡下的说明:Vault作为领事服务网格认证机构提供商 。 此时
,需要通过以下方式配置Consul:首先在/opt/consult/agent certs/下的客户端和服务器上分发引导证书,然后使用update-ca-certificates实用程序将Consul中间CA安装到每个节点中,其方法与我们在上一节中对Vault CA所做的类似。对于这些步骤,可以轻松地遵循Configure Consul教程。 现在已经在节点上分发了引导证书,可以通过将Consul配置分别放置在/etc/Consul中的服务器和客户端上。首先在服务器上启用TLS,然后在客户端上启用TLS。d/folder并重新启动Consul代理。 复制enable-tls-server.hcl YAML 1 verify_incoming = true 2 verify_outgoing = true 3 verify_server_hostname = true 7 9 allow_tls = true enable-tls-client.hcl 复制YAML verify_incoming = false verify_outgoing = true verify_server_hostname = true ca_file = "/opt/consul/agent-certs/ca.crt" auto_encrypt { tls = true ip_san = ["169.254.1.1"] 在每个节点上重新启动Consul代理,TLS上的API应位于https://169.254.1.1:8501 ,但仍然需要通过Consul模板配置证书续订
,并设置mTLS身份验证 。 配置Consul模板页面将指导设置模板文件
,这里应该注意一个小细节:鉴于在我们的集群中,Consul代理正在监听特殊的dummy0接口,我们需要通过模板机制创建适当的证书,在每个模板文件中添加自定义的ip_sans
。为方便起见,以下是服务器代理证书的模板示例 : }} }} 最后,只需要创建一个consul-template配置文件,这里唯一的建议是对服务器节点使用address="http://localhost:8200"和address="https://active.vault.service。Consul:客户节点为8200英寸
。通过这种方式,服务器将拥有更稳定的配置
,因为在Consul无法工作和DNS解析不可用的情况下,与Vault的通信也可以工作。 要执行最终检查TLS证书轮换是否按预期工作
,应该等待24小时,等待在Vault中创建证书时选择的TTL
。测试每个节点上已覆盖的证书可以用这个相当简单的Ansible命令完成 。 复制Shell 此外,还可以使用OpenSSL,检查RPC或API端口上使用的证书。 复制Shell >/dev/null | less 最后
,尝试使用来自服务器节点的正确证书在API上进行连接 。 复制Shell \ \ \ 将Nomad配置为使用TLS的过程非常简单,因为我们需要执行与Consul配置相同的步骤 。供参考的官方教程是使用Vault为Nomad生成mTLS证书,我们将在下面描述一些将省去一些麻烦的调整。 首先 ,就像我们为Consul所做的那样
,在Consul模板中,我们需要添加ip_sans,但在这种情况下,我们还需要添加127.0.0.1
,因为Nomad也将在该接口上从服务(例如:Nomad Autoscaler)联系。以下是我们的例子 : 复制Plain Text { { with secret "pki_nomad_int/issue/nomad-cluster" "common_name=server.global.nomad" "ttl=24h" "alt_names=localhost" "ip_sans=127.0.0.1,169.254.1.1"}} { { .Data.certificate }} 值得注意的是
,Nomad的Consul模板配置可以附加到现有的配置文件中 ,因为我们已经将其用于Consul了。 假设Consul Template将用于从不同的Vault路径检索Consul和Nomad证书
,最好创建一个新策略
,并创建一个具有这两种权限的新令牌。 复制Shell 当然,这个令牌必须在每个节点上的Consul Template配置文件中替换 。 就像我们为Consul所做的那样 ,为了方便,我们共享了应该放在/etc/nomad中的文件。d/以便在服务器节点上启用NomadTLS。对于客户机节点
,只需删除最后一行。 复制enable-tls-server.hcl YAML http = true rpc = true verify_server_hostname = true verify_https_client = true rpc_upgrade_mode = true 当第一次重新加载Nomad代理时,记住在服务器节点上将rpc_upgrade_mode选项更改为false,以便Nomad服务器将只接受TLS连接,然后再次重新启动服务
。 复制Shell 只需要几个步骤就可以完全完成Nomad配置:i)允许访问webUI,ii)启用边车使用TLS,以及iii)测试是否一切都按预期工作。 启用TLS时 ,为了访问Web-UI
,需要在服务器上将verify_https_client设置为false,并重新启动nomad服务。要了解更多信息,发现这篇文章非常有用。 复制Shell \ 现在应该能够连接到https://localhost:4646/ui,但是要记住的是
,对于生产环境,应该使用Vault根CA配置其浏览器,以便提供受支持的对等身份验证。 第二步是让边车使用Consul connect提供的TLS保护网格:为了初始化TLS保护网格中的通道
,Nomad需要与Consul通信
,并在边车中注入正确的证书,以建立受保护的连接。 为此 ,更新/etc/nomad.d/base.中的Nomad配置并允许Nomad通过TLS与Consul API通信,添加以下行: 复制Shell 希望是到了最后的测试阶段。实际上
,如果输入了nomad status命令 ,会收到一个错误消息,因为需要正确配置CLI。 导出端点和证书变量: 复制Shell https://localhost:4646 最后,通过TLS再次检查状态
,nomadstatus命令现在应该无缝工作了
。 下面的最后一步将在我们的集群上启用Consul访问控制列表系统
。该任务的主要参考资料是HashiCorp关于引导ACL系统的教程
。 在启用ACL系统的过程中,遇到了一个小问题
,如果多个节点同时处于活动状态,则无法引导它。小问题可以用简单的解决方案解决 :为什么不在启用ACL之前暂时将集群缩小到一个节点?作为“懒惰的开发人员”,所以一个粗糙但有效的bash循环和SSH帮助我们做到了这一点: 复制Shell ; consul leave 现在复制以下Consul HCL配置文件,然后将ACL引导到单节点Consul集群中: 复制enable-acl.hcl YAML enabled = true enable_token_persistence = true 复制Shell node-1 :/var/tmp/enable-acl.hcl consul /var/tmp/enable-acl.hcl /etc/consul.d/enable-acl.hcl Consul将回复一条成功的消息
,并允许我们继续保存Consul引导令牌,并通过重新启动Consul代理将其他节点重新加入原始集群。 复制Shell CONSUL_HTTP_TOKEN :/var/tmp/enable-acl.hcl consul /var/tmp/enable-acl.hcl /etc/consul.d/enable-acl.hcl consul.service 此时,如果集群中只有服务器节点可用(使用:consul成员进行检查) ,并且看到Vault、Consul和Nomad代理不再工作;这很正常,因为它们没有适当的ACL策略和相对令牌。按照下面的步骤,将修复它。 与Vault的集成非常简单。只需要从适当的Consul策略生成一个令牌,并再次运行Ansible Vault角色,在设置一个额外的Ansible额外变量后 ,一次更新所有的节点
: 复制YAML 与其他组件的集成可以遵循官方教程按照以下顺序轻松完成。 (1)为Consul节点和代理创建规则、策略和令牌。 (2)为用户界面(UI)创建规则、策略和令牌。 (3)为DNS创建规则、策略和令牌;为简单起见,我们只是将这个策略与点1)处的策略合并,并为下面模板开始的每个节点生成
: { } { } { } { } { } { (4)为Nomad创建规则、策略和令牌 现在强制ACL在默认情况下拒绝通信 ,最后在每个节点上重新启动Consul。 复制Shell 此时
,基于HashiCorp产品的“安全边缘基础设施”应该已经启动并运行
,可以开始安装首选的工作负载
。在这个例子中 ,在这个部署上安装了一层中间件 ,支持负载平衡 、监视和自动扩展等特性 。为了实现最后一个目标
,我们分别使用Traefik、Prometheus和Nomad自动扩展器
,可以想象,为了让这些工具在完整的TLS基础设施上正常工作,还需要额外的配置 ,但这将是另一篇文章的主题
。 总之
,我们分享这项工作的可能演变,我们认为这是很自然的
:鉴于在跨组件的通信和身份验证方面 ,基础设施被认为是相当安全的,为什么不将其用作构建混合基础设施的支柱 ,其中控制平台节点位于所选择的云中,而数据平台服务器位于边缘? 有了这样的架构,将拥有一个毫无疑问的优势,即能够通过一个控制平台来控制多个边缘站点,从而消除开销,并实现企业的规模经济。当然 ,应该对系统进行适当的分区 ,以支持多租户,这肯定是下一个令人兴奋的项目 。 原文标题
:How To Use Hashicorp Tools To Create a Secured Edge Infrastructure ,作者:Daniele Santoro
