译者 | 李睿 审校 | 重楼 本文解释了如何使用HashiCorp的何使堆栈构建一个安全的平台;许多步骤都有良好的文档记录。我们将详细强调最关键的用H缘基部分
,解释在哪里发现问题以及如何解决问题
,工具并在官方教程中保留参考资料,创建础设以防止本文过长且难以理解
。安全 如下图所示 ,何使我们想要实现的用H缘基物理架构由五个节点的Consul和Nomad集群组成:其中三个是配置为高可用性(HA)的控制平台节点,其余两个是工具数据平台节点。云计算 考虑到我们处于边缘环境,创建础设安装集群服务器的安全最终位置至关重要: 在默认情况下,用H缘基服务器的工具角色是维护集群的状态
,而客户机则为物理上位于群集附近的创建础设用户提供服务 。 在自动化和虚拟化时代,安全继续前进的方法是创建一个“测试并销毁”的亿华云虚拟化环境 ,以便在进入生产环境之前尝试配置
,并在物理基础设施上部署所有内容。 DevOps工具箱由Ansible
、Terraform和Git等工具组成 ,在构建如此复杂的环境的过程中,它一直是一个严格的配置和流程要求。Ansible Vault是我们的选择,以确保与特定环境相关的敏感内容(如密码
、模板下载密钥、配置变量和引导令牌或TLS证书)受到保护和加密
,而不是以纯文本形式从我们存储用于构建基础设施的代码的Git存储库中可见。 我们首先创建五台虚拟机。对于测试使用了以下规范 : 用户可以选择其喜欢的公共云提供商,在那里部署大量的虚拟机与Terraform。或者,为了加快部署过程,可以使用VirtualBox和Vagrant在他们的笔记本电脑上创建它们,但最终,高防服务器将得到一个与此类似的Ansible清单
: 复制YAML 在这个引导阶段 ,开源Ansible社区提供了一个经过广泛测试的、安全的公共剧本。得益于Ansible Galaxy实用程序,我们可以提取两个角色的代码,分别部署Consul和Nomad。 我们将上述角色制作成一个专有的剧本,首先,使用虚拟网络接口配置和设置服务器网络
。该接口映射到保留IP地址169.254.1.1,用于解析集群中的免费模板*.consol域名 ,我们称其为dummy0接口
。我们依靠Ansible在目标节点上配置它,最后,我们将在每台服务器上有以下文件 :/etc/systemd/network/dummy0.network:: 复制Shell [Match] dummy0 [Network] .254.1.1/32 ~consul. 此外,公共剧本还在服务器上配置了一些基本的自定义
,比如更新操作系统、设置节点用户导入相关的SSH authorized_keys、安装容器运行时以及一些调试CLI工具
。 最后,应该通过设置适当的Ansible变量来注意配置Consul和Nomad角色。它们的大多数名称是源码下载不言自明的 ,但是必须指定consul_version和nomad_version(在本例中分别为1.12.2和1.2.8)。三个客户机节点应该使用consul_node_role和nomad_node_role变量,而其他节点应该使用服务器变量。另一个需要设置的有用变量是nomad_cni_enable:true,否则,将不得不人工在任何Nomad节点上安装CNI。 通过这种方式
,我们还能够以最小的工作量支持不同环境库存的快速供应和部署,从生产裸服务器或边缘的cloudlet到在云中开发和测试虚拟机
。 此时 ,我们已经为Consul+Nomad集群做好了准备,应该能够访问各自的用户界面(UI)并启动一些测试工作负载
。如果一切正常,那么就是配置Vault集群的时候了
。为了简单起见,它将被安装在运行Nomad和Consul控制平台的高可用性(HA)服务器节点上。 如果是Vault初学者,可以从这里开始进行尝试,然后可以移动到Ansible Vault角色来安装这个组件,但是在进入剧本之前,需要一些人工步骤来为我们的Vault集群引导PKI。 如果企业提供现有的PKI配置 ,可以依赖它 。这里 ,我们将从头开始
,创建根证书(CA)颁发机构和证书。 首先,创建根密钥(这是CA私钥
,可用于签署证书请求),然后使用根密钥创建需要分发给所有必须信任客户端的根证书,可以根据需要调整-days标志的值。 复制Shell 必须在提示符上自定义字段 ,例如 ,使用如下内容:C=IT, O=CompanyName, CN=company.com/emailAddress=example@company.com,并可选地检查根CA证书: 复制Shell 此时,我们需要为每个服务器 、设备或应用程序创建证书,这些服务器
、设备或应用程序需要通过CA信任的证书公开TLS加密的服务。在本例中,我们将把该证书分配给Vault集群,因此将在每个Vault节点上使用相同的证书 。 复制Shell \ vault.key \ \ vault.csr 要完成这一过程,使用所有可选名称(可以是URL或IP)创建一个extfile;在本例中
,使用每个Vault节点的IP,然后使用CSR和密钥以及CA根密钥生成证书。 复制Shell >> extfile.cnf serverAuth >> extfile.cnf 除其他次要文件外,现在应确保在当前工作文件夹中包含以下生成的文件: PKI文件必须通过专用变量传递给Ansible角色以及下面建议的一些其他配置
,然后通过将Vault角色分配给服务器节点来启动Vault配置。 复制YAML consul 如果使用自签名CA ,还需要一个步骤:必须将其复制并安装到每个节点中
,可以通过以下方法轻松完成此任务: 复制Shell rootCA.crt /usr/local/share/ca-certificates/ 最后,初始化Vault集群,打开它,使用初始化阶段返回的令牌登录
,并检查它的状态;如果一切正常 ,那么转到下一个陷阱:在新的集群上启用和配置TLS。 复制Shell vault operator init vault operator unseal vault login 在本节中
,将详细介绍为在集群中运行的基础设施组件(例如Consul和Nomad代理)和应用程序容器启用安全集群通信的过程。因此,我们将在mTLS验证之上
,使用TLS加密和服务验证来保护Consul Agent通信。这可以使用从Vault集群生成的证书来完成;此外,在本例中 ,证书将在服务器上通过Consul Template分发,在客户端通过自动加密方法分发。 所有与证书更新和Consul 、Nomad代理以及Vault之间的轮换相关的秘诀都掌握在Consul Template所需的组件中
。可以分享一下GitHub页面的参考,并简要地给一些关于如何安装和配置它的提示
,因为到目前为止
,在网上找不到完整的指南: 在每个集群节点的主节点中下载并解压缩二进制文件 复制Shell 在systemd的每个节点上创建单元文件: 复制Shell 最后,将其提升为systemd下的系统服务 ,并为consul-template配置文件创建一个文件夹。 复制Shell \ Consul模板的主框架现在准备好了
。在接下来的步骤中
,需要做的就是为每个请求证书轮换的服务创建配置文件和模板文件
。 可以很容易地遵循下面的循序渐进的教程,这些教程非常详细
,只需要针对具体情况进行微小而明显的调整
: 现在,在继续Consul配置之前 ,我们需要启用和配置Consul Connect功能,为此,我们首先需要启用Vault作为Consul Connect认证机构提供商
:Consul Connect创建的服务网格网络中使用的证书将由Vault生成和管理
。跳转到以下教程,并确保选择“自我管理”选项卡下的说明:Vault作为领事服务网格认证机构提供商。 此时,需要通过以下方式配置Consul :首先在/opt/consult/agent certs/下的客户端和服务器上分发引导证书,然后使用update-ca-certificates实用程序将Consul中间CA安装到每个节点中,其方法与我们在上一节中对Vault CA所做的类似。对于这些步骤 ,可以轻松地遵循Configure Consul教程。 现在已经在节点上分发了引导证书,可以通过将Consul配置分别放置在/etc/Consul中的服务器和客户端上
。首先在服务器上启用TLS,然后在客户端上启用TLS。d/folder并重新启动Consul代理。 复制enable-tls-server.hcl YAML 1 verify_incoming = true 2 verify_outgoing = true 3 verify_server_hostname = true 7 9 allow_tls = true enable-tls-client.hcl 复制YAML verify_incoming = false verify_outgoing = true verify_server_hostname = true ca_file = "/opt/consul/agent-certs/ca.crt" auto_encrypt { tls = true ip_san = ["169.254.1.1"] 在每个节点上重新启动Consul代理,TLS上的API应位于https://169.254.1.1:8501,但仍然需要通过Consul模板配置证书续订
,并设置mTLS身份验证。 配置Consul模板页面将指导设置模板文件,这里应该注意一个小细节
:鉴于在我们的集群中,Consul代理正在监听特殊的dummy0接口,我们需要通过模板机制创建适当的证书,在每个模板文件中添加自定义的ip_sans。为方便起见,以下是服务器代理证书的模板示例: }} }} 最后,只需要创建一个consul-template配置文件,这里唯一的建议是对服务器节点使用address="http://localhost:8200"和address="https://active.vault.service。Consul:客户节点为8200英寸。通过这种方式,服务器将拥有更稳定的配置,因为在Consul无法工作和DNS解析不可用的情况下,与Vault的通信也可以工作 。 要执行最终检查TLS证书轮换是否按预期工作 ,应该等待24小时,等待在Vault中创建证书时选择的TTL。测试每个节点上已覆盖的证书可以用这个相当简单的Ansible命令完成。 复制Shell 此外,还可以使用OpenSSL,检查RPC或API端口上使用的证书 。 复制Shell >/dev/null | less 最后 ,尝试使用来自服务器节点的正确证书在API上进行连接。 复制Shell \ \ \ 将Nomad配置为使用TLS的过程非常简单,因为我们需要执行与Consul配置相同的步骤。供参考的官方教程是使用Vault为Nomad生成mTLS证书,我们将在下面描述一些将省去一些麻烦的调整。 首先,就像我们为Consul所做的那样,在Consul模板中,我们需要添加ip_sans,但在这种情况下
,我们还需要添加127.0.0.1,因为Nomad也将在该接口上从服务(例如:Nomad Autoscaler)联系 。以下是我们的例子
: 复制Plain Text { { with secret "pki_nomad_int/issue/nomad-cluster" "common_name=server.global.nomad" "ttl=24h" "alt_names=localhost" "ip_sans=127.0.0.1,169.254.1.1"}} { { .Data.certificate }} 值得注意的是,Nomad的Consul模板配置可以附加到现有的配置文件中,因为我们已经将其用于Consul了 。 假设Consul Template将用于从不同的Vault路径检索Consul和Nomad证书,最好创建一个新策略 ,并创建一个具有这两种权限的新令牌
。 复制Shell 当然
,这个令牌必须在每个节点上的Consul Template配置文件中替换
。 就像我们为Consul所做的那样,为了方便,我们共享了应该放在/etc/nomad中的文件。d/以便在服务器节点上启用NomadTLS。对于客户机节点,只需删除最后一行。 复制enable-tls-server.hcl YAML http = true rpc = true verify_server_hostname = true verify_https_client = true rpc_upgrade_mode = true 当第一次重新加载Nomad代理时
,记住在服务器节点上将rpc_upgrade_mode选项更改为false
,以便Nomad服务器将只接受TLS连接,然后再次重新启动服务
。 复制Shell 只需要几个步骤就可以完全完成Nomad配置:i)允许访问webUI,ii)启用边车使用TLS
,以及iii)测试是否一切都按预期工作
。 启用TLS时
,为了访问Web-UI,需要在服务器上将verify_https_client设置为false,并重新启动nomad服务 。要了解更多信息,发现这篇文章非常有用。 复制Shell \ 现在应该能够连接到https://localhost:4646/ui,但是要记住的是
,对于生产环境
,应该使用Vault根CA配置其浏览器,以便提供受支持的对等身份验证。 第二步是让边车使用Consul connect提供的TLS保护网格:为了初始化TLS保护网格中的通道
,Nomad需要与Consul通信
,并在边车中注入正确的证书 ,以建立受保护的连接 。 为此
,更新/etc/nomad.d/base.中的Nomad配置并允许Nomad通过TLS与Consul API通信 ,添加以下行
: 复制Shell 希望是到了最后的测试阶段。实际上,如果输入了nomad status命令,会收到一个错误消息,因为需要正确配置CLI 。 导出端点和证书变量: 复制Shell https://localhost:4646 最后,通过TLS再次检查状态,nomadstatus命令现在应该无缝工作了。 下面的最后一步将在我们的集群上启用Consul访问控制列表系统。该任务的主要参考资料是HashiCorp关于引导ACL系统的教程
。 在启用ACL系统的过程中,遇到了一个小问题,如果多个节点同时处于活动状态 ,则无法引导它。小问题可以用简单的解决方案解决 :为什么不在启用ACL之前暂时将集群缩小到一个节点?作为“懒惰的开发人员” ,所以一个粗糙但有效的bash循环和SSH帮助我们做到了这一点: 复制Shell ; consul leave 现在复制以下Consul HCL配置文件
,然后将ACL引导到单节点Consul集群中: 复制enable-acl.hcl YAML enabled = true enable_token_persistence = true 复制Shell node-1 :/var/tmp/enable-acl.hcl consul /var/tmp/enable-acl.hcl /etc/consul.d/enable-acl.hcl Consul将回复一条成功的消息
,并允许我们继续保存Consul引导令牌,并通过重新启动Consul代理将其他节点重新加入原始集群。 复制Shell CONSUL_HTTP_TOKEN :/var/tmp/enable-acl.hcl consul /var/tmp/enable-acl.hcl /etc/consul.d/enable-acl.hcl consul.service 此时 ,如果集群中只有服务器节点可用(使用:consul成员进行检查),并且看到Vault、Consul和Nomad代理不再工作;这很正常,因为它们没有适当的ACL策略和相对令牌
。按照下面的步骤,将修复它。 与Vault的集成非常简单 。只需要从适当的Consul策略生成一个令牌,并再次运行Ansible Vault角色,在设置一个额外的Ansible额外变量后 ,一次更新所有的节点 : 复制YAML 与其他组件的集成可以遵循官方教程按照以下顺序轻松完成。 (1)为Consul节点和代理创建规则 、策略和令牌。 (2)为用户界面(UI)创建规则、策略和令牌。 (3)为DNS创建规则、策略和令牌;为简单起见
,我们只是将这个策略与点1)处的策略合并,并为下面模板开始的每个节点生成: { } { } { } { } { } { (4)为Nomad创建规则
、策略和令牌 现在强制ACL在默认情况下拒绝通信
,最后在每个节点上重新启动Consul。 复制Shell 此时,基于HashiCorp产品的“安全边缘基础设施”应该已经启动并运行
,可以开始安装首选的工作负载。在这个例子中,在这个部署上安装了一层中间件 ,支持负载平衡
、监视和自动扩展等特性。为了实现最后一个目标,我们分别使用Traefik、Prometheus和Nomad自动扩展器
,可以想象,为了让这些工具在完整的TLS基础设施上正常工作 ,还需要额外的配置,但这将是另一篇文章的主题。 总之,我们分享这项工作的可能演变 ,我们认为这是很自然的:鉴于在跨组件的通信和身份验证方面 ,基础设施被认为是相当安全的 ,为什么不将其用作构建混合基础设施的支柱,其中控制平台节点位于所选择的云中 ,而数据平台服务器位于边缘? 有了这样的架构,将拥有一个毫无疑问的优势
,即能够通过一个控制平台来控制多个边缘站点,从而消除开销
,并实现企业的规模经济
。当然 ,应该对系统进行适当的分区
,以支持多租户,这肯定是下一个令人兴奋的项目
。 原文标题 :How To Use Hashicorp Tools To Create a Secured Edge Infrastructure
,作者 :Daniele Santoro
