1、实际工作或学习中用过哪些Ai工具
- Cursor:是一款专门为 AI 编程设计的集成开发环境(IDE),深度集成了 AI 能力,旨在通过 AI 提高开发者的编码效率,提供了诸如代码编辑、智能提示、代码生成等一站式的编程体验。有免费版本,提供基本的功能,同时也有付费版本,解锁更多高级功能。
- 通义灵码:是阿里云基于通义大模型研发的 AI 编程助手,它不仅可以辅助代码编写,还具备代码解释、代码审查、智能问答等功能,支持多种开发工具集成。目前提供免费使用,未来可能会根据不同的服务和功能推出付费计划。
- Deepseek: 国产的
- 豆包:字节跳动
2、谈谈你知道的AI领域的一些常见词汇及其含义的理解? 例如AIGC、LLM、NPL等分别是什么意思?
AIGC(Artificial Intelligence Generated Content,生成式人工智能)
解释:用人工智能生成各种形式的内容(文字、图片、视频、代码等)
LLM(LargeLanguage Model,大语言模型)
解释:能理解和生成自然语言的巨型AI模型,通过海量文本训练。
深度学习(DeepLearning)
解释:模仿人脑神经网络结构的机器学习方法,需要大量数据和算力。
NLP(NaturalLanguageProcessing,自然语言处理)
解释:让计算机理解、生成人类语言的技术。
PromptEngineering(提示词工程)
解释:通过优化输入指令(Prompt)让AI输出更符合需求。
例子:用"请用小学生能理解的语言解释量子力学"替代"解释量子力学
Token (词元)
解释:AI处理文本的最小单位(可能是一个词、一个字或符号)。
例子:英文中"ChatGPT"会被拆分为[“Chat”,“G”,“PT”]3个Token。
Embedding(嵌入)
解释:将文字、图片等数据转化为计算机能理解的数字向量。
作用:让AI理解不同数据之间的关联性。
微调(Fine-tuning)
解释:在预训练好的大模型基础上,用特定领域数据二次训练。
例子:用法律文书数据微调GPT,打造法律顾问AI。
多模态(Multimodal)
解释:能同时处理文本、图像、语音等多种类型数据的AI。
例子:GPT-4V可以分析图片内容并回答问题。
检索增强生成(RAG)
解释:对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。
例子:RAG广泛应用于各种自然语言处理任务,包括问答系统、知识图谱构建、智能客服等,能够显著提升大模型在实际业务场景中的表现。
3、你觉着DeepSeek相比于其他大模型的优势有哪些?
我觉着DeepSeek相比于其他大模型的优势在于以下几点:
1、强大推理能力和更精准的回答能力:DeepSeek拥有极强的推理能力,相比于其他大模型更善于思考和推理用户问题想了解的答案,因此在后续回答时能够也能够获得想要的结果更精准;
2、使用简单:使用DeepSeek无需专业的提示词,只需要使用简单的提示词就可以获得想要的结果;
3、性价比高:单位token成本可能低于同类国际模型。
4、开源和可定制性强:DeepSeek开源了模型权重,开发者可以根据自己的型进行定制和优化。
5、中文支持更好:对中文语义理解和生成可能更符合本土语言习惯。
PS:除此之外DeepSeek还有其他的一些优点,例如对硬件的要求较低,并且不需要巨量的训练数据等。
4、你认为DeepSeek有什么缺点?
DeepSeek目前主要的缺点有以下几个:
1、服务不稳定:经常出现"服务器繁忙,请稍后再试。“的提示,导致服务不可用!
访问量大,攻击多!
2、功能较少:暂不支持生成图片、音频、视频等功能。
3、多模态能力相对较弱:DeepSeek在多模态任务(如图像理解)方面未做专门优化,仍有一定的短板。
5、为什么DeepSeek经常出现服务器繁忙的问题?
导致DeepSeek服务器繁忙的原因主要有以下两个:
1.短时间内大量请求访问DeepSeek服务,导致压力过大。
2.持续有大量非法攻击,导致DeepSeek服务不可用。
6、怎么解决DeepSeek服务器繁忙的问题?
解决DeepSeek服务器繁忙的解决方案有以下两大类:
1、本地部署DeepSeek:因为本地部署对硬件要求极高,因此大部分电脑都只能使用蒸馏版的DeepSeek(功能和效率相比满血版有一定的阎割),它的优点是数据隐私性较好,但对本地硬件要求较高。
2、使用第三方DeepSeek:也就是第三方在其自己的高性能服务器上部署了DeepSeek满血版,然后提供给用户使用,例如以下这些:
国家超算互联网平台:https://chat.scnet.cn/#/home 字节旗下的火山引擎:https://console.volcengine.com/ark/ 硅基流动:https://cloud.siliconflow.cn/models 360纳米AI搜索:https://bot.n.cn/ 秘塔AI搜索:https://metaso.cn/ 百度云:https://cloud.baidu.com/ 腾讯云:https://lke.cloud.tencent.com/lke/#/trialProduct 阿里云:https://bailian.console.aliyun.com/
7、本地部署大模型有什么优缺点?如何部署本地大模型?
优点分析 隐私性高:数据都在本地,不用担心泄露问题,对于一些敏感数据处理来说,这是最大的优势。
稳定性强:不受网络影响,只要电脑不坏,模型就能稳定运行,不用担心中途卡顿或者断线。
可定制性强:可以根据自己的需求进行调整和优化,想让它做什么功能就做什么功能,灵活性很高。
缺点分析 硬件要求高:大模型对电脑的性能要求不低,如果电脑配置不够,可能会运行很卡,甚至跑不起来。
部署复杂:对于小白来说,一开始可能会觉得有点复杂,需要安装各种东西,还得配置参数,不过只要按照教程来,其实也没那么难。
维护成本高:如果模型出了问题,可能需要自己去排查和解决,不像在线工具有问题直接找客服就行。
部署本地大模型
在本地部署DeepSeek只需要以下三步:
1、安装 Ollama。
2、部署DeepSeek。
3、使用DeepSeek。
Ollama、DeepSeek和ChatBox之间的关系如下:
Ollama是"大管家",负责把DeepSeek安装到你的电脑上。
DeepSeek是"超级大脑",住在Ollama搭建好的环境里,帮你做各种事情。
8、在微服务项目中如何实现智能客服?
简单版本:Spring AI集成DeepSeek:三步搞定Java智能应用
复杂版本:AI赋能传统系统:Spring AI Alibaba如何用大模型重构机票预订系统?
9、SpringBoot项目如何实现流式内容输入结果给前端用户?
在 SpringBoot 中实现流式输出可以使用 Sse(Server-SentEvents,服务器发送事件)技术来实现,它是一种服务器推送技术,适合单向实时数据流。
具体实现逻辑:Spring AI 集成 DeepSeek,实现流式输出
10、有没有了解过智能体?什么是智能体?
基于大模型,来根据需求,进行特定领域的训练,使其具有类人推理能力
11、聊聊你对于AI的看法?你觉AI可以取代程序员吗?
短期内AI将成为程序员的“超级工具”,但无法完全取代人类程序员的创造性、系统思维和跨领域协作能力,同时会深刻改变开发模式,程序员需转型为“AI协作者”!
12、LangChain4j和springAI这2个大语言模型(LLM)应用开发框的区别和选型
- 要快速上线、做 RAG/Agent/复杂编排 → 选 LangChain4j(生态成熟,灵活)。
- 要统一接口、避免厂商锁定、深度集成 Spring → 选 Spring AI(标准优先,面向未来)。
- 团队想拥抱官方趋势、接受新框架 → 选 Spring AI;要稳扎稳打、马上落地 → 选 LangChain4j。
13、解释一下 RAG(检索增强生成)是什么?为什么需要它?
RAG 就是让 AI 先“查资料”,再“写答案”。
14、为啥要有 RAG?直接问 AI 不行吗?
你想啊,大模型(比如通义千问、ChatGPT)它虽然“知识渊博”,但它有两个毛病:
- 它学的东西是“老黄历”
- 它的知识是训练时定死的,比如学到 2024 年。
- 你问:“今天股市怎么样?” 它根本不知道今天发生了啥!
👉 就像一个学霸,但从来不看新闻,信息早就过时了。
- 它会“瞎编”
- 如果它不知道答案,不会说“我不知道”,而是凭感觉胡说八道,还说得特别像那么回事。
- 比如问:“我们公司上个月利润多少?” 它可能随口编个“5000万”,其实根本不对。
👉 这就叫“幻觉”——听着挺靠谱,其实是假的。
15、那 RAG 是怎么解决的?
很简单:别让它猜,先给它看材料!
举个例子:
你是一家公司的客服系统,用户问:“你们最新版APP怎么修改密码?”
- 系统先去公司的“产品手册”或“帮助文档”里搜一下“修改密码”相关内容;
- 找到最新的操作说明(比如一段文字或截图);
- 把这段内容“喂”给 AI,告诉它:“你就根据这个来回答”;
- AI 看完资料,再生成回答:“请打开设置 → 账户 → 修改密码……”
16、RAG是怎么工作的呢?
- 查:用户一提问,系统马上去知识库(比如文档、数据库、网页)里找相关资料;
- 塞:把找到的内容,和用户的问题一起发给 AI;
- 答:AI 根据真实资料,生成一个靠谱的回答。
17、RAG在 Java 系统里是咋用的?
你可以想象:
- 你的 Spring Boot 项目是“指挥官”;
- 它接到用户问题后,用代码去查数据库或向量库(比如 Redis、Milvus);
- 查到结果后,调用通义千问 API,把资料和问题一起发过去;
- 最后把 AI 生成的答案返回给前端。
整个过程,Java 做调度,AI 做写作,知识库做参谋。
18、什么是向量数据库?
向量数据库,就是一种专门用来“存和找相似内容”的数据库。
它不像传统数据库(比如 MySQL)按“ID、姓名、年龄”来查, 而是按“意思”来查 —— 比如:“这句话说的是不是同一个事儿?”
你可以把它想象成一个“语义坐标”。
举个例子
假设你在做一个智能客服,用户问:
“我忘了密码,咋办?”
你有很多常见问题,比如:
- “忘记密码怎么重置?”
- “登录不了怎么办?”
- “手机号换了怎么改?”
- “账户被锁定了能解开吗?”
你想让系统自动判断:用户这个问题,最像哪一条?
- ❌ 传统方法(关键词匹配):
- 查有没有“密码”这个词 → 有,就返回“忘记密码怎么重置?”
- 但如果用户说:“我登不进去了”,没提“密码”,就匹配不到,傻眼了。
- ✅ 向量数据库的方法:
- 把每句话都变成一串“数字”(这串数字叫向量),这串数字代表它的“意思”。
- 然后问数据库:“哪句话的意思跟‘我忘了密码,咋办?’最像?”
- 数据库一秒就找出:“哦,‘忘记密码怎么重置?’ 跟它最像!” → 返回正确答案。
👉 就像人理解语义一样,看的是“意思像不像”,而不是“字一样不一样”。
那“向量”到底是个啥?
你可以把它想象成一个“语义坐标”。
比如:
- “猫” →
[0.8, 0.5, 0.2] - “狗” →
[0.7, 0.6, 0.3] - “汽车” →
[0.1, 0.9, 0.8]
你会发现:“猫”和“狗”的数字很接近 → 它们都是动物,意思相近; 而“汽车”差得远 → 意思不相关。
向量数据库就是根据这些“坐标”的距离来判断“谁跟谁像”。
向量数据库能干啥?(实用场景)
| RAG 知识库检索 | 用户提问 → 转成向量 → 找最相关的文档片段(知识库) → 给 AI 生成答案 |
|---|---|
| 推荐系统 | 用户看了“手机”,就把“手机壳”“耳机”这些语义相近的商品推荐给他 |
| 图片搜索 | 上传一张图 → 找出“长得最像”的图片(比如找相似穿搭) |
| 文本去重 | 两篇文章文字不同,但意思一样?向量一比,发现很接近 → 判定为重复 |
常见的向量数据库
| 名字 | 特点 |
|---|---|
| Milvus | 专业做向量搜索,功能强,适合大规模 |
| PGVector | 给 PostgreSQL 加个插件就能用,简单,开发喜欢 |
| RedisVL | Redis 也能干这事,适合小项目、缓存场景 |
| Elasticsearch | 搜文本很强,现在也支持向量搜索 |
只要记住:“存意思、找相似”——这就是向量数据库的核心本事。