跳至主要内容

博文

博客迁移至 Blogger 小记

最早博客是基于 Hexo 搭建,并部署在 Github Page 上。后来因为访问速度原因,迁至大陆腾讯云裸机器上(因为做活动一年¥100不到),使用 Nginx 代理静态文件。裸机器到期后迁至腾讯云 cos 里,成本倒是降低了,但不久备案被吊销,博客停更。 2023年初博客迁移至掘金。但 2023主要在旅游,博客基本也处于停更状态。今 年初开了 Blogger 账号,又把掘金里仅有的几篇技术博客也迁移至 Blogger。Blogger 除了访问不友好以外,其他都不错。 经过一波又一波后折腾后,现在打算在 Blogger 中重启博客,以随时记录下个人随想。 另外,后面还有计划启用一个摄影网站,专门用于记录摄影照片,目前正在搭建中。
最新博文

学习使用 eksctl 构建 EKS 集群

作为 k8s 小白的我,开始在 AWS 上折腾这玩意儿。 话不多说,这次的目标是: 用  eksctl  构建一个超级简单的 k8s 集群; 配置  kubernetes dashboard ; 创建 网络负载均衡器 NLB(Network LoadBalancer) ,用于分发流量; 启动 3 个 Nginx  Pod 。 第一步,启动集群 使用 eksctl,可以帮助我们一键启动集群,并省去配置 VPC、子网、子网安全组的烦恼。 EKS 支持 EC2 运行和 Fargate 运行,这次我采用前者。 如下配置文件,声明了创建集群  coder418-basic-demo ,且没做其他声明,意味着 VPC 会采用默认配置,每个可用区都会创建一个公有子网、一个私有子网。 会创建 2 个 Node Group,每个包含 2 台  t2.small  规格的 EC2 实例,默认挂载的 EBS 硬盘容量 40G。这里的 EC2 用了提前建好的 SSH Key。 区域选择了  ap-southeast-1 ,对于海外 AWS 来说,新加坡距离较近,是做试验不错的选择。 yaml # eks-cluster.yaml apiVersion: eksctl.io/v1alpha5 kind: ClusterConfig metadata: name: coder418-basic-demo region: ap-southeast-1 nodeGroups: - name: ng-1 instanceType: t2.small desiredCapacity: 2 volumeSize: 40 ssh: publicKeyName: coder418-ap-southeast-1 - name: ng-2 instanceType: t2.small desiredCapacity: 2 volumeSize: 40 ssh: publicKeyName: coder418-ap-southeast-1 一键部署! sh $ eksctl create cluster -f eks-cluster.ya

“给反馈”与“接收反馈”的方法总结

  在工作、生活中,反馈是常见的沟通交流行为。 好的反馈可以提高沟通效率,增进人与人之间彼此的信任。而不好的反馈,往往会造成沟通不顺畅,丢失信任。 给反馈 给反馈的时候, 对事不对人 。关注事情本身,而不是怀疑对方的动机、人品等。 将我所看到的、感受到的告诉对方,让对方补充客观事实 ,基于事实寻找问题解决办法。 反馈的过程中, 避免沟通变成主观说服、指责 。这一行为没有尊重别人的感受。 最后, 提供具体的做法,切忌“只给鸡汤,不给勺子” 。 接收反馈 在接受反馈的时候,耐心倾听,避免敷衍。 保持开放的心态,区分反馈中哪些是客观事实,哪些是主观评价,哪些是具体做法建议。 澄清自己的理解,以确保双方理解一致 。 对于 无客观事实、无具体建议的无效反馈,可以选择不接受 。 我在工作、生活中给过别人反馈,没做好。也收到过别人反馈,没应对好。因此总结方法,想要加深思考、理解。

一次 AWS SageMaker 的上手体验

SageMaker 是个啥 用 AWS 官方的语言来说, SageMaker  是一个完全托管的机器学习平台。 作为一个并不懂机器学习,之前也没了解过 SageMaker 的小白,今天看了 AWS 中国“User Group 社区”的直播后,也亲自上手体验了一下 SageMaker。 直播里面有两个小实验,体验了其中最简单的一个——在 SageMaker上部署一个  GPT-J 模型 。GPT-J 是一个基于 Open AI 的 GTP-3 的自然语言处理模型,可以用作文本预测。 部署了这个模型后,运行一个简单的预测。 开始! 首先打开 SageMaker,启动一个 Jupyter Notebook 实例,规格选了  ml.t2-medium 。 大概等个 2-3 分钟,Jupyter 实例就启动了。 然后进到 JupyterLab 里面,打开终端,克隆 实验代码 。 打开  dploy-gptj.ipynb  这个 Notebook,一步一步执行。 GPT-J 的模型存储在公有 S3 上面。通过代码部署推理实例,实例数量和大小在代码里面定义好了。 等个大概 5 分钟左右,就在 Endpoints 里面看到推理实例启动成功! 然后按照实验教程,让 GPT-J 模型预测“香港最高的建筑是……”和“香港最贵的物业是……”。 也不知道它回答的对不对,不过感觉可真是厉害。 弄完之后删除推理实例和 Jupyter 实例,避免造成额外费用。 感触 虽说是一次简单的体验,但对于机器学习小白的我来说很震撼,心想:“没想到机器学习平台已经这么方便了,看来还有很多的东西要学啊。”