AI模型尝鲜

离职系列 第十二篇
离职系列,想想这几年在公司的成长,在这做个记录。这篇是关于AI功能方案验证。

背景

落地事业部上一年关于AI的创新奖的方案,更合适的叫法应该是交接,之前的团队几乎停留在理论上和一个demo上,因为久久没有效果,可能感受到了上级的压力,需要看到实际效果,最终找到了我们团队,希望能借助我们团队让其产生价值(官方说法),我理解实际就接这个摊子。

方案介绍

因为在这之前就是一个demo,具体前面的团队也说不出来个所以然,所以我们直接说说两边对话后的方案走向,希望做一个功能:容量预测,意思是根据服务器的多个指标历史数据,预估服务器未来的负载情况,从而给予客户参考或预案。

我试着画下大体的方案:

架构图:

alt text

时序图:

alt text

大体流程

  1. 调度器触发flink批任务从ClickHouse获取原始数据
  2. Flink进行基本的数据清洗和标准化
  3. 处理后的数据存入CK
  4. python预测模型从CK获取数据
  5. 预测模型生成预测结果
  6. 阈值分析器识别潜在瓶颈
  7. python大模型提供深度解释和建议
  8. 生成预测报告和告警

学习链接

ollama

ollama is an open-source tool that simplifies running large language models locally on your personal computer
https://www.youtube.com/watch?v=GWB9ApTPTv4&t=171s