Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我是一个java开发工程师,现在想学习AIGC,请帮我制定一个学习计划,从0到1学习AIGC知识,并提供相关的学习资料

Answer

以下是为您制定的从 0 到 1 学习 AIGC 知识的学习计划,并为您提供相关学习资料:

一、学习计划

  1. 基础知识学习

    • 了解 AIGC 的基本概念和发展历程。
    • 学习机器学习的基础知识,包括数据获取、特征工程、模型训练、评估与应用等方面。
  2. 框架学习

    • 学习 Langchain 框架:了解其丰富的功能,能够根据需求更换模型和实现方式。参考网址:https://python.langchain.com/docs/get_started/introduction.html
    • 掌握 Flask / FastAPI 框架:学习如何与前端或业务后端做接口对接,根据具体场景选择合适的框架。参考网址:
      • FastAPI:https://fastapi.tiangolo.com/zh/
      • Flask: https://flask.palletsprojects.com/en/2.3.x/
  3. 实践应用

    • 通过实际项目练习,深入理解 AIGC 的应用开发。

二、学习资料

  1. 关于机器学习的定义和流程:

    • 卡耐基梅隆大学计算机学院教授汤姆·米切尔(Tom Michell)对机器学习的定义:“计算机程序能从经验 E 中学习,以解决某一任务 T,并通过性能度量 P,能够测定在解决 T 时机器在学习经验 E 后的表现提升”
    • 学习数据获取、特征工程、模型训练、评估与应用等方面的知识。
  2. 框架学习资料:

    • Langchain 框架:https://python.langchain.com/docs/get_started/introduction.html
    • Flask 框架:https://flask.palletsprojects.com/en/2.3.x/
    • FastAPI 框架:https://fastapi.tiangolo.com/zh/

希望这个学习计划和学习资料对您有所帮助,祝您学习顺利!

Content generated by AI large model, please carefully verify (powered by aily)

References

刘海:「AI 提示词工程师」の 见解和经验分享

[推荐]FastAPI:https://fastapi.tiangolo.com/zh/Flask:https://flask.palletsprojects.com/en/2.3.x/Python的Web框架,这是必不可少的,需要和前端或者业务后端做接口对接,例如Java主要做业务,而Python来外包AI服务。这里推荐FastAPI,因为它足够轻量,而且社区成长也比较快,当然还是得看你的具体场景,如果你的其他框架兼容Flask多一些,那你是用Flask也可以,或者你可以选择Django哈哈哈。其实主要是要掌握流传输那一块,怎么把ChatGPT一个一个字往前端传,前端如何接收等等,还有负载限流等等。

刘海:「AI 提示词工程师」の 见解和经验分享

Langchain:https://python.langchain.com/docs/get_started/introduction.htmlLangchain,一个非常丰富的框架,我甚至不知道怎么用一句话去告诉你它是什么,就是把你平时开发AIGC应用的过程中不变的地方抽象出来,其中你可以不需要修改什么代码就可以做到更换模型,更换实现方式等等。然后有很多第三方平台都对Langchain做了适配,业务拓展性好,就是比较庞大。虽然Langchain杂而庞大,也必然后续会有更简单的框架出来,也有人吐槽说,我通过简单的几行代码就能实现了,为什么要用Langchain呢?对的,这主要还是根据你的需求而定,如果你只是写一个提示词AI代理网站,调用一次ChatGPT,那连Java也能做,根本用不上框架,这个时候,你也需要担忧一下你的产品护城河了。

YoYo:小白 AI 初识知识点扫盲

机器学习根据卡耐基梅隆大学计算机学院教授汤姆·米切尔(Tom Michell)的定义,机器学习是指“计算机程序能从经验E中学习,以解决某一任务T,并通过性能度量P,能够测定在解决T时机器在学习经验E后的表现提升”数据获取:为机器提供用于学习的数据。特征工程:提取出数据中的有效特征,并进行必要的转换。模型训练:学习数据,并根据算法生成模型。评估与应用:将训练好的模型应用在需要执行的任务上并评估其表现,如果取得了令人满意的效果就可以投入应用。

Others are asking
我想让我的论文降低AIGC使用率,请问我有什么具体可以操作的办法
以下是一些降低论文中 AIGC 使用率的具体操作办法: 1. 使用 AIGC 论文检测工具: Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法是上传论文,系统会自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。输入文本或上传文档,系统会扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,其剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统会提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,能检测 AI 生成内容的迹象。上传文档或输入文本,系统会分析并生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统会提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统会分析并提供结果。 此外,为了从根本上降低 AIGC 使用率,您还需要注重自身的思考和研究,确保论文内容是基于您的独立见解和深入分析。
2025-04-14
想要学习AIGC,推荐下相关的行业大V
以下是一些 AIGC 相关的行业大 V 推荐: :归臧整理的 AIGC 周刊,关注 AI 的朋友每周必读。 :连续创业者,Prompt 版块共建者。 。 :“互联网的那点事”,微博互联网观察家。 ZHO:建筑师|ComfyUI 设计师。 :AIGC 社区野神殿创始人。 。 赛博禅心:最新最快的 AI 资讯,作者大聪明。 张蔚:华兴资本经理,架构和投资版块共建者。 :热爱分享,永远好奇,AI 高质量社群组织者。 汗青:产品经理|AI 设计师。 此外,还有北京分队中的一些相关人士: Lucky:在信息技术领域公司任职 7 年+,目前担任江西 5 家公司企业级 information security 管理,3 个地区千万级企业级 confidentiality Project 管理,5 个地区上海、合肥、苏州、南京、深圳 information security 体系建设管理顾问,目前一只 20 人+AI 项目团队,终身学习践行者。能提供 AI 相关技术的所有项目,包括 AI 图片视频、2D 动画视频、AI prompt、AI 提示词企业培训、AI 大模型、AI agent、数字人等产品。坐标南昌。 粉仔:目前抖音上的 AIGC 相关博主,粉丝画像特别受到中老年妇女们的喜爱,俨然成了她们的偶像。熟悉目前主流的 AIGC 工具。坐标北京。 sam:做技术行业,热爱互联网和 AI 技术。 海地老师:AI 影视共创社北京分社的负责人。逍遥游的制片人和编剧。 Sunkim:自由体验设计师,前保利威设计负责人,先后在新浪、百度、脉脉做体验设计工作。对 AIGC 感兴趣,目前在做 AI 口语教育类产品(上线了),和 web3 相关设计,以及跟大伙学习 AI 视频制作。 胡凯翔:国企工作 10 余年,后沉迷 AI 提示词研究编写,小七姐第一期课程毕业生,微软、讯飞认证提示词工程师,曾担任破局俱乐部企业培训和 AI+教育行动营教练,共创有约 10 万字 AI+教育手册,使用 AI 辅助阅读和开智,标书、论文的写作,玄学取名和头像设计,目前沉迷个人知识体系的搭建和离谱村系列视频的共创。 陈皓/Robin:目前在家科技公司从事产品工作,主要和 Ai,3D 视觉内容+数字人相关;有过知识付费和海外教育的创业经历。
2025-04-14
降低AIGC查重率的提示语
以下是关于降低 AIGC 查重率的提示语相关内容: 结构化提示词对于控制 AIGC 输出效果有重要作用,但原有的结构化提示词在 DeepSeek 上可能不好使,主要原因包括:详细规定思考步骤限制模型自主思考能力、包含大量低信息价值内容降低信息密度、严格的输出格式要求限制模型表达方式。 针对此问题,可设计新的提示词结构,基础结构如下: 1. 符合角色扮演的,基于 html 标签语法编写格式,好处是不用再学 Markdown 语法,降低学习门槛,有更完善逻辑结构且逻辑可嵌套,但坏处是比 Markdown 语法逻辑负担重,初学者易忘记写闭合标签。 2. 您也可以继续使用 MarkDown,只要抽象出来的元素不瞎换位置就行,因为目前这个次序是实际组合排列测试中效果最好的。 同时,还有关于 AIGC 其他方面的内容,如: 1. AI 将使任何人都能够创建游戏,包括人工智能+人类共同创作工具、提示共享和搜索等方面。 2. AIGC 存在刑事法律风险,如利用 AIGC 传递假新闻、诈骗等,服务提供者应遵循相关规定,采取标识、保存日志、设置反馈机制等措施以确保合规。
2025-04-14
写论文,AI写的部分比较多,如何降低AIGC呢?
以下是一些降低论文中 AIGC 比例的方法和常用的 AIGC 论文检测网站: 降低 AIGC 比例的方法:需要您更多地进行自主思考、研究和创作,减少对 AI 生成内容的依赖。 AIGC 论文检测网站: Turnitin:是广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法为上传论文,系统自动分析并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络剽窃行为,虽非专门的 AIGC 检测工具,但可发现可能被 AI 生成的重复内容。输入文本或上传文档,系统扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,可检测 AI 生成内容的迹象。上传文档或输入文本,系统分析生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统分析并提供结果。 这些工具和网站可以帮助教育机构、研究人员和编辑识别 AI 生成的内容,确保学术和出版的原创性和诚信。您可以根据具体需求选择适合的工具来进行检测。
2025-04-13
降低让写论文时aigc查重的提示词
以下是一些可能有助于降低写论文时 AIGC 查重的提示词相关内容: 1. 利用连锁密度法撰写摘要:来自相关文章,您向其索取一篇文章后,需通过重复特定步骤来撰写逐渐简洁、重点突出的摘要。步骤包括找出遗漏的关键要素并编写新的更精炼的摘要,要遵循一系列原则,如与主要内容紧密相关、具体简明、新颖、忠实原文等,最终以 JSON 格式回答,包含“Missing_Entities”和“Denser_Summary”两个键值。 2. 适配 DeepSeek 的结构化提示词:结构化提示词对整理逻辑内容有帮助,当前旧的结构化提示词在 DeepSeek 上不好使的主要原因包括限制模型自主思考能力、包含低信息价值内容、严格的输出格式要求限制表达方式等,应设计新的提示词结构,如基于 html 标签语法的编写格式,其有降低学习门槛、完善逻辑结构等好处,也有逻辑负担重等坏处。 3. RAG 提示工程(二)中的安全与防护实践:文章最初发表于 LangGPT 社区,融入了宝贵见解。提到之前提过的提示词安全问题,展示了某 toC 产品泄漏提示词及模型回复的情况,强调对于生产级应用,安全是第一位的,在讲解更进一步的提示词技术前要先关注提示词安全。
2025-04-11
什么是AIGC
AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式。它能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。 具体来说: 1. 文字生成:使用大型语言模型(如 GPT 系列模型)生成文章、故事、对话等内容。 2. 图像生成:使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等。 3. 视频生成:使用 Runway、KLING 等模型生成动画、短视频等。 AIGC 又称为生成式 AI,例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目和媒介很多,包括但不限于: 语言文字类:OpenAI 的 GPT,Google 的 Bard,百度的文心一言等。 语音声音类:Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits。 图片美术类:早期有 GEN 等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion。 GenAI(即生成式 AI)是一种能够从已有数据中学习并生成新的数据或内容的 AI 应用,利用 GenAI 创建的内容即 AIGC。作为一种强大的技术,生成式 AI 能够赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 Gemini Ultra。图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,应用于数据增强和艺术创作,代表项目有 Stable Diffusion 和 StyleGAN 2。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。AIGC 应用可能引发内生风险、数据隐私问题和知识产权风险。内生风险包括算法的不可解释性和不可问责性,以及代码开源可能带来的安全和伦理担忧。数据隐私方面,AIGC 工具可能导致数据泄露、匿名化不足、未经授权的数据共享等问题。应用风险涉及作品侵权、不当竞争等问题。相关法律和规定对 AIGC 的透明性、数据收集和处理、知识产权归属等提出了要求。然而,著作权归属、数据隐私等问题尚需更多法律明确规定。此外,AIGC 的滥用可能导致虚假信息传播、侵犯隐私等问题,因此需要进一步加强监管和伦理约束。
2025-04-10
学习ai
以下是新手学习 AI 的方法和建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-04-15
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
ai小白学习课程
对于 AI 小白的学习课程,建议如下: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库有很多实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 另外,如果让我推荐一门 AI 课,比如【野菩萨】的课程: 1. 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 2. 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 3. 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 4. SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 5. ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 6. ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 7. 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以来参与 video battle,这是唯一一个获胜者就可以拥有课程的机会。每期的 video battle 的评委野菩萨老师都非常严格,需要寓意深度审美并存。 冠军奖励:4980 课程一份 亚军奖励:3980 课程一份 季军奖励:1980 课程一份 入围奖励:598 野神殿门票一张 扫码添加菩萨老师助理,了解更多课程信息。 对于纯小白,还可以参考以下: |分类|标题|文章链接|视频链接|适用人群|简要说明| ||||||| |通识篇|现有常见 AI 工具小白扫盲|(1 小时 32 分开始)|对 AI 都没太多概念的纯纯小白|给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量| |通识篇|AI 常见名词、缩写解释|结合食用|
2025-04-15
ai小白学习课程
对于 AI 小白的学习课程,建议如下: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,还有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库有很多实践后的作品、文章分享,欢迎实践后分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 另外,如果让我推荐一门 AI 课,比如【野菩萨】的课程: 1. 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 2. 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 3. 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 4. SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 5. ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 6. ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 7. 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以来参与 video battle,这是唯一一个获胜者就可以拥有课程的机会。每期的 video battle 的评委野菩萨老师都非常严格,需要寓意深度审美并存。 冠军奖励:4980 课程一份 亚军奖励:3980 课程一份 季军奖励:1980 课程一份 入围奖励:598 野神殿门票一张 扫码添加菩萨老师助理,了解更多课程信息。 对于纯小白,还可以参考以下: |分类|标题|文章链接|视频链接|适用人群|简要说明| ||||||| |通识篇|现有常见 AI 工具小白扫盲|(1 小时 32 分开始)|对 AI 都没太多概念的纯纯小白|给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量| |通识篇|AI 常见名词、缩写解释|结合食用|
2025-04-15
学习ai思路,完整步骤流程
以下是新手学习 AI 的完整步骤流程: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,以“Windsurf 零基础开发”为例,AI 开发网站的操作步骤如下: 1. 开发目标:以“Windsurf 学习共创社区”为例,借助 AI 能力快速构建现代化 Web 应用。 2. 技术选型:Vue + TypeScript。 3. 目标用户:零基础开发学习者。 4. 参考项目:Cursor101。 5. 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 在开发过程中,输入需求让 windsurf 进行 code,它会将开发思路讲解并给出环境命令,可能会出现报错,将报错信息返回给 cascade,经过自动检查后修复 bug,不断优化细节,如优化导航栏和首页,插入细节图片等。
2025-04-14
基于规则的测试生成: 测试用例生成工具: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。这个应该怎样使用呢
很抱歉,目前没有关于 Randoop 工具使用方法的相关内容。您可以通过以下途径获取更详细的信息: 1. 官方文档:访问 Randoop 的官方网站,查找其提供的详细使用说明和教程。 2. 技术论坛:在相关的技术论坛上搜索关于 Randoop 使用的讨论和经验分享。 3. 开源社区:参与开源社区中关于 Randoop 的交流,向其他开发者请教。
2025-04-08
Java相关的AI
以下是关于 Java 相关的 AI 的一些信息: 1. 利用固定格式文档结合 AI 进行代码开发的可行性分析:建议优化方面,要强调组员主观能动性,让他们自主设计,组长负责引导和经验分享。文档并非唯一最佳方式,可尝试用简短描述或 Prompt 辅助代码生成。经验分享方面,在 AI 编程中,设计非常重要,模块化低耦合设计和清晰的上下文对代码生成效果尤为关键。参考链接: 2. 后端 Java 程序员转向 LLM 方向的行动建议:借助 AI 编程(如 Cursor),熟悉 LLM 原理,探索复杂 Prompt 和定制化规则。开展 LLM 相关的 Side Project(如翻译工具、AI 对话应用等),通过实践快速掌握技能。将 AI 当老师,边做边学,获取即时反馈,持续提升。核心建议是行动起来,找到正反馈,坚持使用 AI 辅助编程。参考链接:
2025-03-14
java程序员怎么转型大模型算法工程师
以下是为 Java 程序员转型大模型算法工程师提供的一些建议: 1. 学习相关理论知识:了解大模型的基本原理,包括模型架构、预训练及微调、部署及推理等。 2. 掌握技术工具:熟悉 LLM 相关技术,如 Transformer、Prompt Tuning、RLHF、Langchain、Agent、MOE、RAG 等。 3. 提升编程能力:熟悉算法和数据结构,具备扎实的编程基础,尤其是 Python 开发。 4. 积累项目经验: 可以参考大圣的全网最适合小白的 Llama3 部署和微调教程,该教程手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调模型,并了解微调的意义和概念。但需注意,此教程不会讲解微调的技术性原理及文中用到的 Python 代码。 关注招聘信息,例如序智科技和中国移动设计院的招聘需求,了解大模型算法工程师的职责和要求,针对性地提升自己的能力。 5. 增强相关技能: 对至少 2 个框架具备源码级别的理解和优化能力,包括但不限于 Langchain、XAgent、ChatDev、DsPy、AutoGPT、BabyAGI、MetaGPT。 熟悉 GPT Function Calling 原理,熟练掌握 Prompt Engineering。 对预训练/微调(尤其是微调)熟练,熟练掌握 huggingface/deepspeed(或其他框架)。 对多模态大模型有一定了解,精通低代码平台会是加分项。 您可以根据自身情况,有针对性地进行学习和实践,逐步实现从 Java 程序员向大模型算法工程师的转型。
2025-03-12
java程序员,怎么吧AI结合到公司的业务上去,K12教育公司
对于 Java 程序员将 AI 结合到 K12 教育公司的业务中,以下是一些可能的方向和建议: 首先,可以考虑利用自然语言处理技术来改善学生与学习平台的交互体验。例如,开发智能客服,能够自动回答学生和家长常见的问题,提高服务效率。 其次,通过机器学习算法对学生的学习数据进行分析,从而实现个性化的学习推荐。比如根据学生的学习进度、成绩、学习习惯等因素,为他们推荐适合的课程、练习和学习资源。 另外,运用图像识别技术来辅助教学材料的制作和评估。例如,自动识别和批改学生的手写作业、试卷等。 还可以开发智能辅导系统,为学生提供实时的学习指导和答疑服务。 最后,利用语音识别和合成技术,打造有声读物、语音教学等功能,丰富教学形式。 但在将 AI 引入业务的过程中,需要注意数据的安全性和合法性,以及确保技术的可靠性和稳定性。同时,要充分考虑教育的特点和学生的需求,以实现有效的融合和应用。
2025-02-23
有java scala hadoop spark flink开发经验员工入门AI 学习提纲以及对应学习内容
以下是为有 Java、Scala、Hadoop、Spark、Flink 开发经验的员工提供的 AI 入门学习提纲及对应学习内容: 1. 学习资源推荐: 系统化学习:观看李弘毅老师的生成式 AI 导论、吴达的生成式 AI 入门视频等,并整理学习笔记与大家交流互动。 社区共创学习:参与社区共创活动,通过做小项目反向推动学习。 参考资料:A16Z 推荐的 AI 相关原理内容,包括 GPT 相关知识、Transformer 模型运作原理、大语言模型词语接龙原理等基础知识。 官方 cookbook:open AI 的官方 cookbook,小琪姐做了中文精读翻译。 历史脉络资料:整理 open AI 的发展时间线、万字长文回顾等。 2. 学习路径: 从提示词开始学习与各类模型的对话,了解其重要性和结构化提示词的优势。 学习过程中可以先从国内模型工具入手,不花钱,若想进阶再考虑高阶方向。 3. 其他学习方式: 创作者将内容做成可视化形式,后续会发到群里。 上传相关 PPT 用作参考。 从温达、李弘毅老师课程等学习入门。 了解时代杂志评选的百位领军人物。 学习 AI 相关名词解释,如 AGI、AIGC、agent、prompt 等,可通过与 AI 对话或李继刚老师的课程来理解。 订阅赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等获取最新信息并投稿。 参与社区活动,如 AIPU、CONFIUI 生态大会、每月的切磋大会、新活动 AIPO 等。
2025-02-21
大模型在软件开发公司(主java+vue)的应用场景有哪些
大模型在以 Java 和 Vue 技术为主的软件开发公司中,具有以下一些应用场景: 1. 代码自动生成:大模型可以根据需求描述生成 Java 或 Vue 的代码片段,提高开发效率。 2. 代码优化建议:分析现有代码,提供优化的建议和策略,提升代码质量。 3. 智能错误检测与修复:快速识别代码中的错误,并提供可能的修复方案。 4. 需求分析与理解:帮助更好地理解和梳理复杂的业务需求,转化为技术实现的思路。 5. 自动化测试用例生成:根据代码和需求生成有效的测试用例,提高测试效率和覆盖度。 6. 技术选型辅助:在面临新的项目或技术难题时,提供相关技术选型的参考和建议。
2025-02-06
如何成为提示词工程师
提示词工程师是在与人工智能模型交互时,负责设计和优化提示的专业人员,旨在通过精心构造的提示引导模型产生准确、有用和相关的回答。 其主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,以便理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例,比如在市场营销类和商业类中,有自动优化 Prompt 的案例,如 JackeyLiu 熟悉的转化步骤包括: 1. 角色和能力:基于问题思考 chatGPT 最适合扮演的角色,应是该领域最资深的专家,适合解决问题。 2. 上下文说明:思考提出问题的原因、背景和上下文。 3. 任务陈述:基于问题进行陈述。 提示词工程师是一个新兴职业,随着人工智能技术的不断发展,对其需求将会越来越大。
2025-04-15
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
我是一名硬件工程师 如何让ai快速理解我的原理图并优化
以下是关于让 AI 理解原理图并优化的相关知识: 1. 在 AI 硬件发展方面,存算一体的方式是未来的趋势。对比人脑,其能耗低,使用存算一体的芯片有望诞生全新算法,运行几百亿参数的大模型的最佳架构也是存算一体,因其避免了数据搬运。 2. 大模型在通用知识方面较强,但对专业领域知识了解不足。将大模型与私域知识结合有 5 种方法:重新训练(拿私域数据重新训练大模型)、微调(拿私有数据 finetuning 大模型)、RAG(将知识库里的知识搜索送进大模型)、关键词工程(写好提示词)、加长 Context(当 Context 能无限长时,可将知识和记忆 prefill 到 Context 里)。学术界中,做深度学习的人偏向于用 RAG,做过搜索的人偏向于用 Long Context。 3. 在 Trae 优化代码方面,当请求“帮我把当前的代码给优化一下”时,请求先到 Trae 自己的服务器,服务器再请求对应模型返回数据。不会发送本地代码文件,只发送“文件名”加“问题”,且在最开始 Trae 打开项目进行索引构建时,已在云端构建好项目文件。 对于您作为硬件工程师让 AI 快速理解原理图并优化的需求,目前可能需要进一步探索如何将原理图的特征和相关信息转化为适合 AI 处理和理解的形式,或许可以借鉴上述将专业知识与大模型结合的方法,以及利用高效的数据库和模型架构来提高处理效率。
2025-03-23
懂编程但是不了解大模型的工程师如何系统的学习深度学习?
对于懂编程但不了解大模型的工程师,系统学习深度学习可以参考以下路径: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程推荐吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 参考相关资源,如 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 运用相关开源工具,如 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为了更好地理解相关技术原理和建立框架,还可以了解以下内容: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。
2025-03-13
假如你是一名测试工程师,要写一个关于《AI智能体输入输出验证》专利申请书,申请书的内容包括以下几点: 1、发明名称(一种xxxxxxxx算法/架构/设计/外观等等等等) 2、发明背景技术 3、具体的技术方案描述 4、本发明的有益效果
以下是为您生成的关于《AI 智能体输入输出验证》的专利申请书内容: 发明名称:一种基于 Coze 工作流的 AI 智能体输入输出验证算法 发明背景技术: 在当前的 AI 应用中,构建和测试智能体的功能至关重要。特别是在处理复杂的任务,如生成思维导图时,需要确保输入和输出的准确性和有效性。然而,现有的技术在配置子任务节点和验证其可用性方面存在不足,导致效率低下和结果不稳定。 具体的技术方案描述: 1. 对于生成思维导图的任务,首先确定处理方式为“单次”,因为一次精读任务仅需生成一张思维导图。 2. 在输入方面,<generateTreeMind>插件节点仅需设置{{query_text}}变量,格式为 string 字符串,通过引用“标题、导语、大纲”节点的{{enTreeMind}}变量来提供输入。 3. 在输出方面,观察输出区的众多字段,根据字段名称、「查看示例」中的示例说明或试运行来确定所需的字段。对于生成图片格式的思维导图,确定 pic 为所需的输出。 4. 完成任何一个节点的配置后,进行试运行测试。具体步骤包括:点击「测试该节点」,按格式要求输入待测试的内容(对于 array 等其他格式,自行对话 AI 或搜索网络确认格式要求),点击「展开运行结果」,检查输入、输出项是否有误。若有误,依次检查“测试输入内容”、“节点配置”以及优化“提示词”,以提升对生成内容的约束力。 本发明的有益效果: 1. 提高了 AI 智能体在处理生成思维导图等任务时输入输出配置的准确性和效率。 2. 通过明确的步骤和规范的测试流程,有效减少了错误和不确定性,提升了智能体的稳定性和可靠性。 3. 能够更好地满足用户在复杂任务中的需求,为相关领域的应用提供了更优质的解决方案。
2025-03-04