BR 技术头条
bl blog.nsfocus.net / 2023-02-12 14:05 / by @技术头条 / 原作者:@绿盟科技

部署机器学习方案之困(下)

在工业环境中开发基于机器学习的解决方案包括四个阶段:数据管理、模型学习、模型验证和模型部署,而这些阶段没有严格的时间轴,在一定程度上存在并行和反馈循环。本节将讨论从业者在最后一个阶段中面临的常见问题和挑战,并讨论涉及到的其他问题。

发表评论

相关分享

so soulteary.com / 2025-01-02 23:58

ThinkPad + Redis:构建亿级数据毫秒级查询的平民方案

如何用普通设备实现海量数据的毫秒级查询?文章分享了在 ThinkPad 上构建 Redis 系统的完整方案,详细解析了数据分片、查询优化和资源调配等关键技术,还提供了针对高效查询的实际案例。轻量化实现,高性能表现,为开发者提供了实用的参考思路,值得深入学习!

无图
in innei.in / 2024-11-23 21:56

Vercel 部署的单页应用(SPA)动态 Meta 标签实践

在 Vercel 部署的单页应用(SPA)中,配置动态 Meta Tags 可改善 SEO 和分享体验。通过中间层实现 SSR 或利用 Edge Functions 渲染动态标签,可让每个页面呈现独立内容,兼顾性能与优化效果!

无图
wi wiki.eryajf.net / 2024-11-02 17:08

AWS运维部署实践--快速拉起生产可用的EKS集群

本文详细介绍了在 AWS 上快速搭建生产级 EKS 集群的步骤,包括子网规划、IAM 配置、必要命令工具的安装以及集群的创建和授权。通过 `eksctl` 工具快速定义和创建 EKS 集群,并提供了集群权限管理与网络配置的建议,确保集群安全和稳定运行。文中还包含完工后的调整建议,如将访问端点调整为私有以提升安全性。

无图
wi wiki.eryajf.net / 2024-11-02 17:03

AWS运维部署实践--使用sigma自建镜像仓库代替ECR

本文介绍了如何使用 `sigma` 替代 AWS 的 ECR 作为轻量级的镜像仓库解决方案。通过配置 `s3` 存储、端口监听等设置,实现了低资源占用下的高效镜像管理。文章详细提供了 `config.yaml` 文件的配置方案,以及 `sigma` 部署的具体步骤,适合在自建环境中替代 ECR 进行镜像管理。

无图
wi wiki.eryajf.net / 2024-11-02 16:52

AWS运维部署实践--route53私有域跨账号共享

如果你的业务场景有多个 AWS 账号,那么私有域共享就是一个绕不开的话题。aws 中的 route53 私有域配置跨账号共享有两种方案,一种是直接跨账号关联 VPC,一种是通过配置文件共享的形式实现。本文采用第一种方案,只需要两条命令即可完成此需求。

无图
wi wiki.eryajf.net / 2024-11-02 16:49

AWS运维部署实践--网络环境规划

本文详述了 AWS 网络环境的规划,包括 VPC、子网、路由表的创建和管理。通过对公有、私有和内部子网的划分,以及 NAT 网关和 IGW 的配置,实现了不同网络的隔离与访问控制。同时,文章介绍了使用中转网关进行跨账号 VPC 打通的方法,为多账号和复杂网络环境提供了便捷的连接方案。这些规划为 AWS 运维部署打下了基础,有助于提升环境的安全性与可扩展性。

无图
bl blog.yuanpei.me / 2024-11-02 16:39

温故而知新:后端通用查询方案的再思考

本文探讨了后端通用查询方案的设计,通过 `Gridify` 库启发,提出基于泛型和接口的查询模型,优化分页和过滤功能。实现细节包括 `QueryParameter` 类和 `IQueryableFilter` 接口的使用,自定义模型绑定方式,使查询参数更灵活,支持多种前后端兼容格式。文章强调开发中平衡灵活性与规范性,并认为在 AI 辅助编程背景下,程序员应专注于复杂问题解决和生产关系的改善。

无图
bl blog.yuanpei.me / 2024-03-12 22:29

使用 llama.cpp 在本地部署 AI 大模型的一次尝试

本文旨在尝试使用 llama.cpp 在本地部署 AI 大模型,随着人工智能的快速发展,我们逐渐认识到私有化部署的重要性和潜力。在此背景下,llama.cpp 作为一个纯 C/C++ 实现的 LLaMA 模型推理工具,提供了在本地环境下高性能的 AI 推理能力。在这篇文章中,我们可以了解到 llama.cpp 具有在 GPU 和 CPU 环境下运行的灵活性,满足私有化部署的需求。文章详细介绍了 llama.cpp 编译和部署的过程,为读者提供了一份在本地部署 AI 大模型的教程。私有化部署的 AI 大模型,相比于 ChatGPT 这类通用大模型,更注重数据隐私和安全性,对云服务的依赖更少,可以做到更好的本地化控制。虽然编译 llama.cpp 有一定的复杂性,AI 大模型的下载、转化、量化需要一定的耐心,可当本地的 AI 应用运行起来的那一刻,博主觉得这一切完全值得。

无图