Skip to content

1、实际工作或学习中用过哪些Ai工具

  • Cursor:是一款专门为 AI 编程设计的集成开发环境(IDE),深度集成了 AI 能力,旨在通过 AI 提高开发者的编码效率,提供了诸如代码编辑、智能提示、代码生成等一站式的编程体验。有免费版本,提供基本的功能,同时也有付费版本,解锁更多高级功能。
  • 通义灵码:是阿里云基于通义大模型研发的 AI 编程助手,它不仅可以辅助代码编写,还具备代码解释、代码审查、智能问答等功能,支持多种开发工具集成。目前提供免费使用,未来可能会根据不同的服务和功能推出付费计划。
  • Deepseek: 国产的
  • 豆包:字节跳动

2、谈谈你知道的AI领域的一些常见词汇及其含义的理解? 例如AIGC、LLM、NPL等分别是什么意思?

AIGC(Artificial Intelligence Generated Content,生成式人工智能

解释:用人工智能生成各种形式的内容(文字、图片、视频、代码等)

LLM(LargeLanguage Model,大语言模型)

解释:能理解和生成自然语言的巨型AI模型,通过海量文本训练。

深度学习(DeepLearning)

解释:模仿人脑神经网络结构的机器学习方法,需要大量数据和算力。

NLP(NaturalLanguageProcessing,自然语言处理)

解释:让计算机理解、生成人类语言的技术。

PromptEngineering(提示词工程)

解释:通过优化输入指令(Prompt)让AI输出更符合需求。

例子:用"请用小学生能理解的语言解释量子力学"替代"解释量子力学

Token (词元)

解释:AI处理文本的最小单位(可能是一个词、一个字或符号)。

例子:英文中"ChatGPT"会被拆分为[“Chat”,“G”,“PT”]3个Token。

Embedding(嵌入)

解释:将文字、图片等数据转化为计算机能理解的数字向量。

作用:让AI理解不同数据之间的关联性。

微调(Fine-tuning)

解释:在预训练好的大模型基础上,用特定领域数据二次训练。

例子:用法律文书数据微调GPT,打造法律顾问AI。

多模态(Multimodal)

解释:能同时处理文本、图像、语音等多种类型数据的AI。

例子:GPT-4V可以分析图片内容并回答问题。

检索增强生成(RAG)

解释:对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。

例子:RAG广泛应用于各种自然语言处理任务,包括问答系统、知识图谱构建、智能客服等,能够显著提升大模型在实际业务场景中的表现。

3、你觉着DeepSeek相比于其他大模型的优势有哪些?

我觉着DeepSeek相比于其他大模型的优势在于以下几点:

1、强大推理能力和更精准的回答能力:DeepSeek拥有极强的推理能力,相比于其他大模型更善于思考和推理用户问题想了解的答案,因此在后续回答时能够也能够获得想要的结果更精准;

2、使用简单:使用DeepSeek无需专业的提示词,只需要使用简单的提示词就可以获得想要的结果;

3、性价比高:单位token成本可能低于同类国际模型。

4、开源和可定制性强:DeepSeek开源了模型权重,开发者可以根据自己的型进行定制和优化。

5、中文支持更好:对中文语义理解和生成可能更符合本土语言习惯。

PS:除此之外DeepSeek还有其他的一些优点,例如对硬件的要求较低,并且不需要巨量的训练数据等。

4、你认为DeepSeek有什么缺点?

DeepSeek目前主要的缺点有以下几个:

1、服务不稳定:经常出现"服务器繁忙,请稍后再试。“的提示,导致服务不可用!

访问量大,攻击多!

2、功能较少:暂不支持生成图片、音频、视频等功能。

3、多模态能力相对较弱:DeepSeek在多模态任务(如图像理解)方面未做专门优化,仍有一定的短板。

5、为什么DeepSeek经常出现服务器繁忙的问题?

导致DeepSeek服务器繁忙的原因主要有以下两个:

1.短时间内大量请求访问DeepSeek服务,导致压力过大。

2.持续有大量非法攻击,导致DeepSeek服务不可用。

6、怎么解决DeepSeek服务器繁忙的问题?

解决DeepSeek服务器繁忙的解决方案有以下两大类:

1、本地部署DeepSeek:因为本地部署对硬件要求极高,因此大部分电脑都只能使用蒸馏版的DeepSeek(功能和效率相比满血版有一定的阎割),它的优点是数据隐私性较好,但对本地硬件要求较高。

2、使用第三方DeepSeek:也就是第三方在其自己的高性能服务器上部署了DeepSeek满血版,然后提供给用户使用,例如以下这些:

国家超算互联网平台:https://chat.scnet.cn/#/home 字节旗下的火山引擎:https://console.volcengine.com/ark/ 硅基流动:https://cloud.siliconflow.cn/models 360纳米AI搜索:https://bot.n.cn/ 秘塔AI搜索:https://metaso.cn/ 百度云:https://cloud.baidu.com/ 腾讯云:https://lke.cloud.tencent.com/lke/#/trialProduct 阿里云:https://bailian.console.aliyun.com/

7、本地部署大模型有什么优缺点?如何部署本地大模型?

优点分析 隐私性高:数据都在本地,不用担心泄露问题,对于一些敏感数据处理来说,这是最大的优势。

稳定性强:不受网络影响,只要电脑不坏,模型就能稳定运行,不用担心中途卡顿或者断线。

可定制性强:可以根据自己的需求进行调整和优化,想让它做什么功能就做什么功能,灵活性很高。

缺点分析 硬件要求高:大模型对电脑的性能要求不低,如果电脑配置不够,可能会运行很卡,甚至跑不起来。

部署复杂:对于小白来说,一开始可能会觉得有点复杂,需要安装各种东西,还得配置参数,不过只要按照教程来,其实也没那么难。

维护成本高:如果模型出了问题,可能需要自己去排查和解决,不像在线工具有问题直接找客服就行。

部署本地大模型

在本地部署DeepSeek只需要以下三步:

1、安装 Ollama。

2、部署DeepSeek。

3、使用DeepSeek。

Ollama、DeepSeek和ChatBox之间的关系如下:

Ollama是"大管家",负责把DeepSeek安装到你的电脑上。

DeepSeek是"超级大脑",住在Ollama搭建好的环境里,帮你做各种事情。

8、在微服务项目中如何实现智能客服?

简单版本:Spring AI集成DeepSeek:三步搞定Java智能应用

复杂版本:AI赋能传统系统:Spring AI Alibaba如何用大模型重构机票预订系统?

9、SpringBoot项目如何实现流式内容输入结果给前端用户?

在 SpringBoot 中实现流式输出可以使用 Sse(Server-SentEvents,服务器发送事件)技术来实现,它是一种服务器推送技术,适合单向实时数据流。

具体实现逻辑:Spring AI 集成 DeepSeek,实现流式输出

10、有没有了解过智能体?什么是智能体?

基于大模型,来根据需求,进行特定领域的训练,使其具有类人推理能力

11、聊聊你对于AI的看法?你觉AI可以取代程序员吗?

短期内AI将成为程序员的“超级工具”,但无法完全取代人类程序员的创造性、系统思维和跨领域协作能力,同时会深刻改变开发模式,程序员需转型为“AI协作者”!

12、LangChain4j和springAI这2个大语言模型(LLM)应用开发框的区别和选型

  1. 快速上线、做 RAG/Agent/复杂编排 → 选 LangChain4j(生态成熟,灵活)。
  2. 统一接口、避免厂商锁定、深度集成 Spring → 选 Spring AI(标准优先,面向未来)。
  3. 团队想拥抱官方趋势、接受新框架 → 选 Spring AI;要稳扎稳打、马上落地 → 选 LangChain4j

13、解释一下 RAG(检索增强生成)是什么?为什么需要它?

​ RAG 就是让 AI 先“查资料”,再“写答案”。

14、为啥要有 RAG?直接问 AI 不行吗?

你想啊,大模型(比如通义千问、ChatGPT)它虽然“知识渊博”,但它有两个毛病:

  1. 它学的东西是“老黄历”
  • 它的知识是训练时定死的,比如学到 2024 年。
  • 你问:“今天股市怎么样?” 它根本不知道今天发生了啥!

👉 就像一个学霸,但从来不看新闻,信息早就过时了。

  1. 它会“瞎编”
  • 如果它不知道答案,不会说“我不知道”,而是凭感觉胡说八道,还说得特别像那么回事。
  • 比如问:“我们公司上个月利润多少?” 它可能随口编个“5000万”,其实根本不对。

👉 这就叫“幻觉”——听着挺靠谱,其实是假的。

15、那 RAG 是怎么解决的?

很简单:别让它猜,先给它看材料!

举个例子:

你是一家公司的客服系统,用户问:“你们最新版APP怎么修改密码?”

  1. 系统先去公司的“产品手册”或“帮助文档”里搜一下“修改密码”相关内容;
  2. 找到最新的操作说明(比如一段文字或截图);
  3. 把这段内容“喂”给 AI,告诉它:“你就根据这个来回答”;
  4. AI 看完资料,再生成回答:“请打开设置 → 账户 → 修改密码……”

16、RAG是怎么工作的呢?

  1. :用户一提问,系统马上去知识库(比如文档、数据库、网页)里找相关资料;
  2. :把找到的内容,和用户的问题一起发给 AI;
  3. :AI 根据真实资料,生成一个靠谱的回答。

17、RAG在 Java 系统里是咋用的?

你可以想象:

  • 你的 Spring Boot 项目是“指挥官”;
  • 它接到用户问题后,用代码去查数据库或向量库(比如 Redis、Milvus);
  • 查到结果后,调用通义千问 API,把资料和问题一起发过去;
  • 最后把 AI 生成的答案返回给前端。

整个过程,Java 做调度,AI 做写作,知识库做参谋

18、什么是向量数据库?

向量数据库,就是一种专门用来“存和找相似内容”的数据库。

它不像传统数据库(比如 MySQL)按“ID、姓名、年龄”来查, 而是按“意思”来查 —— 比如:“这句话说的是不是同一个事儿?”

你可以把它想象成一个“语义坐标”。

举个例子

假设你在做一个智能客服,用户问:

“我忘了密码,咋办?”

你有很多常见问题,比如:

  • “忘记密码怎么重置?”
  • “登录不了怎么办?”
  • “手机号换了怎么改?”
  • “账户被锁定了能解开吗?”

你想让系统自动判断:用户这个问题,最像哪一条?

  • ❌ 传统方法(关键词匹配):
    • 查有没有“密码”这个词 → 有,就返回“忘记密码怎么重置?”
    • 但如果用户说:“我登不进去了”,没提“密码”,就匹配不到,傻眼了。
  • ✅ 向量数据库的方法:
    • 把每句话都变成一串“数字”(这串数字叫向量),这串数字代表它的“意思”。
    • 然后问数据库:“哪句话的意思跟‘我忘了密码,咋办?’最像?”
    • 数据库一秒就找出:“哦,‘忘记密码怎么重置?’ 跟它最像!” → 返回正确答案。

👉 就像人理解语义一样,看的是“意思像不像”,而不是“字一样不一样”

那“向量”到底是个啥?

你可以把它想象成一个“语义坐标”。

比如:

  • “猫” → [0.8, 0.5, 0.2]
  • “狗” → [0.7, 0.6, 0.3]
  • “汽车” → [0.1, 0.9, 0.8]

你会发现:“猫”和“狗”的数字很接近 → 它们都是动物,意思相近; 而“汽车”差得远 → 意思不相关。

向量数据库就是根据这些“坐标”的距离来判断“谁跟谁像”。

向量数据库能干啥?(实用场景)

RAG 知识库检索用户提问 → 转成向量 → 找最相关的文档片段(知识库) → 给 AI 生成答案
推荐系统用户看了“手机”,就把“手机壳”“耳机”这些语义相近的商品推荐给他
图片搜索上传一张图 → 找出“长得最像”的图片(比如找相似穿搭)
文本去重两篇文章文字不同,但意思一样?向量一比,发现很接近 → 判定为重复

常见的向量数据库

名字特点
Milvus专业做向量搜索,功能强,适合大规模
PGVector给 PostgreSQL 加个插件就能用,简单,开发喜欢
RedisVLRedis 也能干这事,适合小项目、缓存场景
Elasticsearch搜文本很强,现在也支持向量搜索

只要记住:“存意思、找相似”——这就是向量数据库的核心本事。