Navigate to WaytoAGI Wiki →
Home/All Questions
用AI写作一些研究成果总结类的文章
利用 AI 写作研究成果总结类文章可以参考以下步骤和建议: 1. 确定课题主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具提取收集资料中的关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:借助 AI 工具撰写文献综述,确保内容准确完整。 6. 构建方法论:根据研究需求,采用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若课题涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具撰写课题各部分,并进行语法和风格检查。 9. 生成参考文献:使用 AI 文献管理工具生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具检查课题的逻辑性和一致性,根据反馈修改。 11. 提交前的检查:使用 AI 抄袭检测工具确保课题的原创性,并进行最后的格式调整。 需要注意的是,AI 工具只是辅助,不能完全替代研究者的专业判断和创造性思维,使用时应保持批判性思维,确保研究质量和学术诚信。 另外,关于总结类文章,AI 很有可能不会读完整个文章,而只是头尾读一下,中间随机读。使用 Python 的 request 库读取网页速度不快,很多大语言模型实际上也没有真去搜索网页,这更像是大语言模型开发商的“狡猾”,用“AI 幻觉”背锅了。 除了聊天内容,还能让 AI 总结整理各种文章(不超过 2 万字),例如复制文章给 GPTs 让其总结。对于 B 站视频,若有字幕,可安装油猴脚本获取字幕,将其复制给 AI 执行内容总结任务,总结完还可继续提问或探讨细节。
2024-12-11
大模型生态
以下是关于大模型生态的相关信息: Qwen 系列开源模型表现出色,是国内唯一出现在 OpenAI 视野里、能参与国际竞争的国产大模型。其在相关榜单中多次上榜,得分不断提高,累计下载量突破 1600 万,国内外有大量开发者基于其开发模型和应用,尤其在企业级领域。通义大模型证明了开源开放的力量。 AI 大模型是全球数字技术体系的竞争,包括芯片、云计算、闭源模型、开源模型、开源生态等。基础大模型决定产业智能化的天花板等,开源生态在竞争中至关重要。 在 100 基础训练大模型中,Lora 生图环节有诸多设置,如模型强度调节、添加 lora 文件、输入正向提示词、选择生成图片数量和尺寸、调整采样器和调度器等。设置完成后点击开始生成,若对生成结果满意可复制随机种子用于下次近似生成,也可进行高清修复和放大。今日作业要求按照比赛要求收集主题素材并训练提交 lora 模型与案例图像。 奇绩创坛潜空间分享会中,杨植麟提到大模型公司倾向面向生产力场景,目前业界卡在数据方面,应用公司在非生产力场景投入产出比更高,大模型开发者生态差是因为不具备高替换成本和规模效应等条件,做事应遵循寻找梯度最大方向并优化的原则。
2024-12-11
AI 提示词对是做什么的,user 和 assistant 代表什么?
AI 提示词是用于向语言模型传递指令、问题或其他详细信息,以指导模型生成更好的结果。其质量与提供的信息数量和完善度有关。 在使用 OpenAI 的 gpt4 或者 gpt3.5turbo 等聊天模型时,可以使用三个不同的角色来构建 prompt:system、user 和 assistant。其中,system 不是必需的,但有助于设定 assistant 的整体行为,帮助模型了解用户的需求,并根据这些需求提供相应的响应。user 代表用户传递给模型的消息,而 assistant 的消息则是模型给出的响应。 提示工程(Prompt Engineering)就是探讨如何设计出最佳提示词,用于指导语言模型帮助我们高效完成某项任务。例如,可以通过改进提示词来获得更符合需求的输出结果。语言模型能够基于给出的上下文内容进行续写,但输出结果可能出人意料,通过优化提示词可改善。 此外,从提示词的视角看大模型的输出,可分为系统提示词、用户提示和助手提示词三段,这三段内容是连续的。攻击者可能通过操纵模型输出获取系统提示词,而系统提示词包含应用的原信息、功能设定、产品设定以及 AI 应用的逻辑等。
2024-12-11
AI编程产品经理
以下是关于 AI 编程产品经理的相关内容: AI 对产品经理工作流程的改变: 辅助精读论文:能帮翻译、拆解公式,分析代码等。工具:https://scispace.com 写一些小脚本:写 SQL 查询、Python 脚本、正则表达式、图片批量处理等。 产品宣传文案:根据产品宣传渠道写营销文案、营销邮件、产品上架文案等。 调研问卷设计/整理:生成调研框架,回收非结构化问卷,按指定框架生成指定表头表格。 竞品分析:用 BingChat 或 ChatGPT Browsering 插件,按指定框架对比各项数据,如 DAU、用户结构、市场占比等。 解释专业名词:很多垂直领域,都有不少缩写或行业黑话,可以用 ChatGPT 解释举例、给场景说明。 小白的 30min Cursor AI 编程上手步骤: 将相关图片丢进聊天,指出不对的地方让其修改。AI 能立刻改并告知修改之处,但要做好需求提出并不容易,可能需要反复对话和互相“PUA”。 北京分队中相关人员情况: 枫 share:产品经理,熟悉 ChatGPT,写过 prompt,使用过 SD、MJ 但有待深入学习,用 PR、剪映剪辑过多个视频和播客音频。正在找 AI 方向的产品岗位,坐标海淀(北五环)。 行远:产品经理,熟悉 prompt,部署过大模型、绘图项目,使用 Midjourney、sd、pika、suno 等 AI 创作工具。期待学习和实战案例应用,坐标朝阳。 管子:数据科学家,熟悉 prompt 创作,midjourney,runway,正在学习 stable diffusion。期待学习、打磨作品,坐标朝阳(望京和国贸)。 猫先生:算法技术出身,2022 年开始持续关注并学习 AIGC 方向,部署过大模型、绘图、视频生成等项目。熟悉 pika、runway、svd、sd、gpt4、comfyui 等工具,坐标海淀。 Andy:技术出身,刚开始学习 AIGC,部署过大模型、SD 等,写过代码调用 API,熟悉使用 ChatGPT、Kimi、coze 等。关于 AI 在教育领域的应用,坐标通州。
2024-12-11
大模型核心能力是什么
大模型的核心能力主要包括以下几个方面: 1. 泛化能力:指模型在未曾见过的数据上表现良好的能力,通俗来说就是“举一反三”的能力。人类具有较强的泛化能力,无需见过世界上的每一只猫就能认识猫的概念。 2. 多模态:指多数据类型交互,能够提供更接近人类感知的场景。大模型对应的模态包括文本、图像、音频、视频等。 3. 对齐能力:指与人类价值观与利益目标保持一致的能力。但目前在“和谁对齐”的问题上存在争议,同时也存在通过提示词注入绕过限制的情况。 在大型语言模型中,Encoder(编码器)是模型的核心部分,具有以下关键作用: 1. 词嵌入:将词语映射为低维密集向量表示,作为模型的输入。 2. 位置编码:引入序列中每个位置的位置信息,使模型能捕捉输入序列的顺序特征。 3. 注意力机制:通过自注意力层计算输入序列中每个词与其他词的关系,捕捉长程依赖关系。 4. 层叠编码:通过多层 Transformer Encoder 块的堆叠,对输入序列进行深度的特征提取和语义建模。 5. 上下文建模:整合输入序列中每个位置词的全局上下文信息,形成其语义表示。 基于多模态大模型的应用具有以下优点: 1. 适应性极好,通过提示词工程,方便“适应各种奇葩需求”。 2. 对算法的要求降低,大部分功能由大模型提供,特别是非结构化信息的处理。 3. 大模型的 API 访问方式简化了边缘设备的要求,在多种操作系统或嵌入式设备上都能方便适配。 但也存在以下缺点: 1. 大模型的推理时长目前仍是最大的障碍,传统目标检测或人脸识别优化后能达到 100 300ms,而大模型动则需要 10 秒的延时,限制了许多场景。 2. 模型的幻象和错误率仍然较高,导致上述推理时长问题,在多链路的复杂应用中迅速变得不可行。 3. 在大多数生产模式下,仍然需要使用云服务数据中心,提交的画面不可避免地涉及到隐私问题。 4. 商业私有化部署是刚需,当下的开源模型与 GPT4 代差在半年以上,技术人员任重道远。
2024-12-11
chatgpt-on-wechat接入coze相关教程
以下是 chatgptonwechat 接入 coze 的相关教程: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 点击“Docker”中的“项目模板”中的“添加”按钮。 项目模板代码示例如下:将编译好的内容复制进来。 在容器中创建容器,选择容器编排,填入模板和名称,确定。 现实运行成功。 点击容器后,可以看到运行的是两个服务,因为接口文档中启动了两个服务。 然后点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。这个界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到 WeChat login success,就成功将 Bot 接入微信中了。 2. 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版。 无备注干净版。 将上面编译好的内容复制进来。 在“容器编排”中“添加容器编排”。 选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 3. 注意事项: 该教程默认您已经掌握通过 COW 接入微信机器人的方式了。如需补课请先前往:【共学最全版本】微信机器人跟学教程。 在 chatgptonwechat 中 config.json 中配置您自己的 Coze API Key 和 Coze Bot ID。 coze_api_key:“您创建的 Coze API Key”。 coze_bot_id:“您对应微信 Bot 的 Coze Bot 的 id”。
2024-12-11
有没有能分析拆解腾讯视频的AI工具?
目前有使用 Gemini 1.5 Pro 来分析和拆解腾讯视频的工具。以下是一些相关信息: 大家可以放自己的案例,本文档可编辑。 郑跃葵:拿个库布里克的电影来分析,连大师手法都学会了。 大峰 AI 绘画:太酷啦又多了一个 AI 视频创作助手。 Jones:b 站大学复习有救了。 对!:拉片太方便了。 Shock:而且可以干掉人工标注了,安徽那边数据标注众包要失业了。 清慎:1. 影视二创长剪短,一键生成小帅、小美、大壮、丧彪的故事;2. 警察叔叔查监控,一句话找出监控中的可疑现象;3. 替代 Opus 等长剪短工具。 测试者阿强:好用,准确度很高,把前几天用 AI 做的功夫熊猫之离谱村版丢进去分析,效果很好。拆解作品。 测试者张余和 Ling、洋洋也有拆解结果,Gemini 1.5 Pro 给出了全文。 您可以尝试使用 Gemini 1.5 Pro 来满足您对腾讯视频的分析拆解需求。
2024-12-11
能设计微信小程序的AI
以下是关于能设计微信小程序的 AI 的相关信息: 有案例介绍了如何利用 chatgpt 来实现微信小程序的搭建,包括注册小程序和开发上线的步骤。 用 Coze 免费打造自己的微信 AI 机器人时,确定功能范围包括支持用户发送“关键字”获取“AI 相关资料链接”、能回答 AI 相关知识(优先以“我的知识库”回答,不足时调用 AI 大模型并在答案末尾添加相关信息)、能发布在微信公众号上作为“微信客服助手”。要实现此功能,需要准备的内容有:根据 Bot 目的和核心能力编写 prompt 提示词;整理“关键字”与“AI 相关资料链接”的对应关系;创建自己的知识库;创建工作流来控制 AI 按要求处理信息;准备好微信公众号。并且还展示了“AI 前线”Bot 的最终效果界面。
2024-12-11
coze如何使用
以下是关于 Coze 的使用方法: 1. 先跑起来,创建第一个 bot: 打开 coze.cn/home,点击创建 Bot。 输入随便的信息,如“尝试联网”。 尝试询问:今天的 hacker news 上有什么新闻?可能答不出。 引入联网插件 WebPilot:插件> + >选择 WebPilot,重新尝试联网,再次询问上述问题,可能成功。 2. 为 Bot 添加技能: 设定 Bot 的人设与回复逻辑后,为 Bot 配置对应的技能,以保证其可以按照预期完成目标任务。 以获取 AI 新闻的 Bot 为例,添加一个搜索新闻的接口来获取 AI 相关的新闻。 在 Bot 编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择阅读新闻>头条新闻> getToutiaoNews,然后单击新增。 修改人设与回复逻辑,指示 Bot 使用 getToutiaoNews 插件来搜索 AI 新闻。 (可选)为 Bot 添加开场白,目前支持豆包、微信公众号(服务号)。 3. 测试你的 Bot: 配置好 Bot 后,在预览与调试区域中测试 Bot 是否符合预期。可单击清除图标清除对话记录。 4. 发布你的 Bot: 在 Bot 的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-11
如何用chatgpt写文献综述
以下是关于如何用 ChatGPT 写文献综述的一些方法: 1. 可以让 ChatGPT 对文章的 PDF 打印版进行总结,提取主要观点,并用项目符号列出要点,总结文章中的论点,甚至可以请求它提供可能的反驳观点,或者告知如何深入了解某个特定话题或问题。 2. 对于超长文档,如一本书,需要将其分段进行总结。每个段落作为一个查询来总结,然后将这些段落的总结连接在一起,形成整体的总结。这个过程可以重复进行,直到整本书都被总结完。如果后面的内容需要前面的内容作为背景才能理解,在总结后面部分的时候,可以在查询中包含之前已经总结过的内容,以帮助模型更好地理解整个文档。例如,对于一本 300 页关于人工智能历史的书,可先将书分为章节,为每一章生成一个摘要,再将章节摘要连接起来生成整本书的总摘要,若章节之间有关联或依赖关系,在总结后续章节时可包含前面章节的摘要,以确保摘要的准确性和连贯性。
2024-12-11