直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

近期的大模型进展

回答

近期大模型的进展主要包括以下方面:

  • 多模态大模型:
    • 现状:随着数据集和模型规模扩大,传统多模态模型计算量大,研究重点在于各模态的连接,利用现成训练好的单模态基础模型可减少训练费用和提升效率。通过多模态预训练和指令微调实现模态对齐及模型输出与人类意图对齐是核心挑战。
    • 发展历程:最初集中在多模态内容理解和文本生成,如 Flamingo、BLIP-2 等;同时实现多模态输入和输出工作,如 MM-LMM;将 LLM 和外部工具继承进来,实现“any-to-any”的多模态理解和生成,如 visual-chatgpt 等;还有为减少级联过程中传播误差的工作。
  • 大型视觉模型 Sora:符合视觉模型的规模化定律,展示了新兴能力,包括遵循指令、视觉提示工程和视频理解等,是第一个展示确认新兴能力的视觉模型,标志着计算机视觉领域的重要里程碑。
  • OpenAI 的新模型 o1-preview/mini:复杂问题思考过程长,相对简单问题也需 5 - 10 秒,使用条数少,冷却时间长,但推理模型准确率不断攀升,为行业注入了强心剂。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

多模态大模型入门指南-长文慎入【持续更新】

最近,多模态大模型取得重大进展。随着数据集和模型的规模不断扩大,传统的MM模型带来了巨大的计算量,尤其是从头开始训练的话。研究人员意识到MM的研究重点工作在各个模态的连接上,所以一个合理的方法是利用好现成的训练好的单模态基础模型,尤其是LLM。这样可以减少多模态训练的费用,提升训练效率。MM-LLM利用LLM为各种MM任务提供认知能力。LLM具有良好的语言生成,zero-shot和ICL的能力。其他模态的基础模型则提供了高质量的表征。考虑到不同模态的模型是分开训练的,如何将不同模态连接起来,实现协同推理,是核心挑战。这里面的主要工作便是通过多模态预训练和多模态的指令微调,来实现模态之间的对齐,以及模型输出与人类意图的对齐。[heading3]1.2多模态的发展历程:[content]关于多模态的发展主要有:最初的发展集中在多模态的内容理解和文本的生成:Flamingo,BLIP-2,Kosmos-1,LLaVA/LLaVA-1.5/LLaVA-1.6,MiniGPT-4,MultiModal-GPT,Video-Chat,VIdeo-LLaMA,IDEFICS,Fuyu-8B,Qwen-Audio同时实现多模态的输入和输出工作MM-LMM,探索特定模态的生成,例如Kosmos-2,Mini-GPT5,以及语音生成的SpeechGPT将LLM和外部工具继承进来,实现“any-to-any”的多模态理解和生成。visual-chatgpt,ViperGPT,MM-React,HuggingGPT,AudioGPT同样,有为了减少级联过程中传播误差的工作,有NExT-GPT和CoDI-2,来开发任意模式的多模态模型

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

视觉模型的规模化定律。有了LLMs的规模化定律,自然会问视觉模型的发展是否遵循类似的规模化定律。最近,Zhai等人[24]展示了,有足够训练数据的ViT模型的性能-计算前沿大致遵循(饱和)幂律。继他们之后,谷歌研究[25]提出了一种高效稳定训练22B参数ViT的方法。结果显示,使用冻结模型产生嵌入,然后在顶部训练薄层可以实现出色的性能。Sora作为一个大型视觉模型(LVM),符合这些规模化原则,揭示了文本到视频生成中的几种新兴能力。这一重大进展强调了LVMs实现类似LLMs所见进步的潜力。新兴能力。LLMs中的新兴能力是在某些规模上——通常与模型参数的大小有关——表现出的复杂行为或功能,这些行为或功能并未被开发者明确编程或预期。这些能力被称为“新兴”,因为它们源于模型在多样化数据集上的全面训练,以及其庞大的参数数量。这种组合使模型能够形成联系并做出超越简单模式识别或死记硬背的推断。通常,这些能力的出现不能通过从小规模模型的性能外推来直接预测。虽然许多LLMs,如ChatGPT和GPT-4,展示了新兴能力,但直到Sora的出现,展示类似能力的视觉模型还很少。根据Sora的技术报告,它是第一个展示确认新兴能力的视觉模型,标志着计算机视觉领域的一个重要里程碑。除了其新兴能力,Sora还展示了其他显著能力,包括遵循指令、视觉提示工程和视频理解。Sora的这些功能方面代表了视觉领域的重大进步,并将在后续部分进行探讨和讨论。

OpenAI:我憋了个新大招儿,它叫o1-preview/mini

[title]OpenAI:我憋了个新大招儿,它叫o1-preview/mini其次,今天凌晨第一批吃螃蟹的用户已经体验过了,从各群、各微、各推的反馈来看,复杂问题的思考过程长达30s,而相对简单的问题则要5-10s之间。就连OpenAI给出的模型速度示例中,o1-preview的速度也是偏慢的。最后,让人有点郁闷的是,新模型(o1-preview/mini)的使用条数太少了,而且冷却时间相当长,按照少数AI先锋(@陈财猫)的测试,o1-preview的冷却时间长达7天。这一周几十条的用量也顶多算是打打牙祭...最后,我想分享一些个人的思考和感悟。随着这两年来对模型发展的观察,我看到了一个明显的趋势:仅仅依靠生成式应用的场景是相当有限的。尤其是toB领域,我们遇到的更多是对准确性要求极高的场景,甚至需要100%准确的情况,比如安全领域和金融领域,这些都是差之毫厘谬之千里的业务。而大模型的局限性也是常常在于此(幻觉)。但推理模型的准确率不断攀升、甚至达到完全可信的地步确实是一件非常惊喜又恐怖的事情。之前让模型干创意的活儿,现在又能干精确的活儿,这属于全场景覆盖!这意味着AI技术可以渗透到更多行业、更多高精尖业务中去!同时,我回想起老师曾经对我说过的一句话:"不管现在的大模型处理速度多慢,操作多么繁琐,只要能保证最终结果的正确性,它就拥有无限的可能性。"我觉得老师的话不无道理,不要看现在新模型的推理速度慢,但这些都可以通过增配新硬件去解决,只要钱到位,这都不是问题。况且,这也可能是慢思考系统的一种呢?你说对吧!再者,在今年上半年,甚至是上个月,很多人还在担忧大模型的前景。但OpenAI推出的新模型无疑给这个行业注入了一剂强心剂,为整个领域带来了新的活力和希望。这是令人赞叹和振奋的。

其他人在问
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
目前deepseek的进展
目前 DeepSeek 的进展如下: 持续 5 天的“开源周”已进行到第 3 天。周一开源了专为英伟达 Hopper GPU 打造的高效 MLA 解码内核 FlashMLA,已正式投产使用。周二开源了专为混合专家系统(MoE)和专家并行(EP)设计的通信库 DeepEP。周三开源了支持稠密和 MoE 模型的 FP8 GEMM(通用矩阵乘法)计算库 DeepGEMM,可为 V3/R1 的训练和推理提供强大支持。总的来说,英伟达和 DeepSeek 开源的内容都是通过对英伟达 GPU 和集群的优化,来推动 AI 模型的高效计算和部署。 华尔街分析师对 DeepSeek 的反应:展示出媲美领先 AI 产品性能的模型,但成本仅为其一小部分,在全球主要市场的 App Store 登顶。Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑。高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 DeepSeek 的实际使用体验:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化,表现不错;编程能力略逊于 GPT,据用户反馈。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。
2025-04-01
上一周 ai有什么新的进展
以下是上一周 AI 的一些新进展: 应用形态的重构方面,AI Agent 取得突破,为机器人赋予自主行动能力,AI 编程工具的进展或预示人机协作模式的变革。 2 月,OpenAI 发布视频生成模型 Sora,实现高质量文本生成视频,开创 AI 视频生成新纪元。 3 月,Suno 发布 V3 版本,AI 音乐生成进入生产力可用状态。 4 月,Meta 发布高性能开源大模型 Llama3,降低了 AI 技术的准入门槛。 5 月,GPT4 发布,RayBan 与 Meta 合作的智能眼镜销量突破百万,字节上线即梦 AI。 6 月,快手发布可灵,Apple Intelligence 发布。 9 月,OpenAI 发布 o1 预览版。 10 月,Rosetta 和 AlphaFold 算法的研发者因在蛋白质结构设计和预测中的突破性贡献获得诺贝尔化学奖,约翰·霍普菲尔德和杰弗里·辛顿因人工神经网络和深度学习的开创性贡献获诺贝尔物理学奖,Anthropic 大模型 Claude 3.5 Sonnet 获得“computer use”功能。 12 月,OpenAI 发布 o3 系列模型。 此外,还有一些关于 AI 的讨论和话题,如把 350 万条 Midjourney 提示词放进一张可视化图里,2 套权威的 AI 术语表,天工新功能的定位靠近元宇宙,NotebookLM 与 AI 播客的关系,Bob 类似于更轻巧的能选多种大模型的桌面端应用“豆包”,Monica.im 的发展,物圆 TreLoop 的情况,对 AGI 距离的讨论,Arc 浏览器的状态,李开复关于 AI 应用爆发和 AGI 的观点,李继刚的 Prompt 玩法,OpenAI 研究副总裁离职,15 岁开发者的开源项目被收购,关于 AI 编程效率的讨论等。
2025-03-17
请推荐最新的AI相关进展新闻
以下是一些最新的 AI 相关进展新闻: 在医疗领域: ChatGPT 和 Google Bard 等技术极大加速了医疗健康生物制药的研究,AI 在抗癌、抗衰老、早期疾病防治等方面发挥着重要作用。例如,AI 提前三年诊断胰腺癌;两名高中生与医疗技术公司合作发现与胶质母细胞瘤相关的新靶基因;AI 帮助抗衰老,筛查出高效的药物候选物;利用 AI 寻找阿尔兹海默症的治疗方法;使用神经网络分析患者体液中的生物标志物以早期诊断帕金森。 在技术应用方面: AI Agent 的突破让行业看到更多可能性,如机器人获得自主行动能力。AI 编程工具的进展预示着人机协作模式的变革。 2024 年 AI 关键进展时间线包括:2 月 OpenAI 发布视频生成模型 Sora;3 月 Suno 发布 V3 版本;4 月 Meta 发布高性能开源大模型 Llama3;5 月 GPT4 发布等。 赛博月刊显示,AI 音频公司在效果和延迟方面取得突破,3D 世界生成领域处于初级阶段但有望在明年取得巨大进步,AI 应用的更新集中在搜索、知识库、编程等领域,越来越多应用公司受到资本青睐。
2025-03-16
transformer是通往AGI的必经之路吗?什么是世界模型,当前有哪些进展
Transformer 并非通往 AGI 的必经之路。在已知的 token space 中,Transformer 符合一些条件,但在更通用的场景中不太符合。AI 本质包含一堆 scaling law,一个值得被 scale up 的架构是基础,且架构要支持不断加入更多数据。当前在数据方面,如限定问题的数据生成有进展,但通用问题还没有完全的解法。 世界模型方面,目前的研究正在以指数级别的速度增长。对于语言这种有结构、有规则的指令系统,其逻辑受指向描述变化,如早期语言模型建模中用到的 RNN、LSTM 及当前 LLM 的 Transformer 模型结构,都是对语言序列性所体现逻辑结构的适配。同时也在思考是否存在其他形式的符号化表征及相应的建模结构,以及对于非碳基生物语言的使用情况等。未来通往 AGI 的道路并非简单,需要探寻 RL 与 LLM 的本质普遍性。
2025-03-16
请帮我整理关于AI最新进展和应用的介绍内容
以下是关于 AI 最新进展和应用的介绍: 医疗领域: ChatGPT 和 Google Bard 等技术极大加速了医疗健康生物制药的研究。AI 在抗癌、抗衰老、早期疾病防治等方面发挥着重要作用。 提前三年诊断胰腺癌。 两名高中生与医疗技术公司合作发现与胶质母细胞瘤相关的新靶基因。 帮助抗衰老,筛查超过 80 万种化合物发现高效药物候选物。 用于寻找阿尔兹海默症的治疗方法。 帮助早期诊断帕金森。 法律法规方面: AI 在许多领域已经取得重大进展和效率提升,如交通监控、银行账户欺诈检测、工业大规模安全关键实践等。 AI 具有巨大的潜力来改变社会和经济,可能产生与电力或互联网相当的影响。 大型语言模型等技术进步带来了变革性的发展机会。 基础通识课方面: 流式训练方式提升了训练速度和质量,基于 Transformer 模型进行流匹配优于扩大模型。 有多种 AI 生成工具,如能创作音乐的 so no 音频生成工具、创建个人 AI 智能体的豆包、生成播客的 Notebook LN。 端侧大模型能部署在手机端等设备,通过压缩解决存储和性能问题。 AI 工程平台对模型和应用有要求,如 define 平台,coach 平台有新版本模板和众多插件工具,还有工作流。 有魔搭社区等为大模型提供服务的平台。 预告了 AI 建站,需安装基础软件帮助文科生和无基础人员建站。
2025-03-15
新手如何更好使用该网站,主要了解人工智能或者AGI进展,主流软件的学习和应用
对于新手想要更好地使用该网站来了解人工智能或 AGI 进展以及主流软件的学习和应用,以下是一些相关内容: AE 软件: 基本功能:可通过图层软件抠元素加插件做特效,如利用 auto field 自动填充工具,轨道遮罩功能让图层按特定形状变化等。 与 AI 结合运用:如用 runway 生成烟花爆炸素材,结合 AE 的图层混合模式、遮罩等功能实现特效可控的画面。 其他应用:用内容识别填充功能处理视频画面,如抹掉入镜的人;从素材网站获取粒子素材为画面添加氛围感。 学习路径:可在 B 站找丰富的 AE 软件入门课程自学,也可从包图网下载工程文件学习。 学习方法:通过拆解视频、留意路边广告特效、按层级逻辑思考画面运动来学习 AE,还可参考模板。 与 AI 的关系:AI 出现后,AE 使用减少,有些动效可用 AI 完成。 在短剧中的应用:在火焰、文字、光线等方面有少量应用。 AI 相关技术与活动: AI 音乐创作:通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 数字人语音合成:介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 Config UI 的应用:能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 社区共创项目:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等活动。 作业与报名:作业是询问对 AI 方向的兴趣和想做的项目,活动报名可通过填写名字和申请新增学校参与。 线下寄送物料组织活动:会给大家寄送线下活动物料,在学校内组织。 AI 春晚即将开始:去年 300 人 30 天共创了 AI 春晚,今年的也即将开始,可报名参与多种岗位。 AIPO 活动及相关挑战:10 月 20 日的 AIPO 活动,可提前构思展示项目,有会话和视频相关的挑战赛。 共学活动与技能提升:接下来 10 天有从零基础到建站等内容的讲解,回放会放在链接里,可先从练习提示词入手。 硬件机器人材料购买:若搞硬件机器人,部分材料需尽快购买。 自媒体发布与流量扶持:在小红书发布活动内容带特定标签有流量扶持,作品也可发布在 GitHub 等平台。 活动奖项与历史玩法:设最佳创业奖和最佳投资奖各四个,有线下摆摊展示交流、IPO 路演等玩法,之前在多个城市举办过 AI 切磋大会。 工具使用与新大赛预告:可使用多种 AI 工具,新的大赛即将开启,有百万奖金池,相关动态会在社区活动栏目公布。 AI 音乐和数字人语音合成: AI 音乐方面,提到草爷、格林 king、狗哥带大家入门,有相关课程与教程,且淘宝上有套壳工具抄袭。社区伙伴做的 AI 音乐专辑不错。 数字人语音合成部分提到声音克隆,有新的声音克隆且音质很不错。 提到了微软新出的成果、阿里的 Cozy voice(指出其泛化能力不强)、大家常用的 GPT solve it、刚举办的 AI 3D 活动。 以小田的 config UI 基础工作流一日谈展开,讲述了多个案例,如许建拍摄场景图成本降低,郭佑萌在图书出版行业提升效率,影楼可进行换装等操作,文旅文创场景有有趣的合影生成方式,还提到该工作流岗位稀缺且社区有课程可供学习。 AJ 介绍平台资源,包括共学课程、专栏报告、数据等,还提及就业创业及一些企业专栏的内容。
2025-02-28
可灵AI近期有哪些重大更新
快手 AI 产品“可灵”近期的重大更新如下: 1. 今年 6 月,凭借“让老照片动起来”、“让照片中的人拥抱”等热点在互联网爆火,以高质量视频效果、低价格和良心免费额度获好评。 2. 9 月更新了 1.5 模型能力,使视频的画面表现力、提示词理解能力、画面清晰度大幅提升,位列视频生成产品第一梯队。 1.0 模型生成一次视频消耗 10 灵感值,1.5 模型消耗 35 灵感值。 免费用户每日免费享 66 灵感值,付费用户享有 1.5 模型、去水印、高清晰度视频生成、视频延长能力、大师运镜、AI 生图画质增强能力。 增加了运动笔刷控制。 1.5 模型在画面表现力、提示词理解能力上有大幅提升,改善了此前将相机运动描述当作实物生成的问题,但视频中文本内容生成仍有待改进。 3. 移动端 APP 为快影,网页版访问地址为:https://klingai.kuaishou.com/ ,使用指南:https://docs.qingque.cn/d/home/eZQDKi7uTmtUr3iXnALzw6vxpsection=h.j6c40npi1fan 。 4. 传统 txt2vid、img2vid 以外,还支持首尾帧控制、延长视频、对口型能力。txt2vid 模式下支持运镜控制,普通用户可使用水平/垂直运镜、推进/拉远、垂直/水平摇镜;另有四种大师运镜仅付费用户可用。
2025-04-08
Way to AGI 近期更新
Way to AGI 近期更新如下: 3 月 8 日: 《》:专为 AI 小白打造的实用指南,涵盖基础概念、30 分钟 AI 工具速成体验、Deepseek 使用指南、WayToAGI 知识库导航、Coze 智能体搭建等核心内容,适合多种人群,强调实践、通俗易懂、循序渐进,并融入社区互动。 《》:Manus 是 AI 驱动的无图形界面 Linux 虚拟机&浏览器,能运行终端命令、访问网页、调用 API,适用于自动化办公、数据分析等任务,但有一定限制,本文基于 8 小时直播测试,带你深入体验其能力、限制与未来可能性。 3 月 7 日: 《》:作者夙愿学长介绍了 2025 年必用的十大 AI 工具和工作流,涵盖写作、搜索、语音与视频处理等领域,推荐了 Claude、Gemini 和 Gamma 等工具。 《》:在 6 号晚的 WaytoAGI 直播中,Manus 引发 3 万人围观,展示了其强大的 AI 智能,参与者分享了各种趣味案例。 《》:与传统 AI 不同,“Manus”能完成复杂任务,成为用户在数字世界的“代理人”,创始人强调未来成功的关键在于主动寻找和解决问题的能力。 此外,WaytoAGI 近期活动备份: :2024 年 7 月 26 日9 月下旬,由中国科学技术馆和网易新闻发起,WaytoAGI 作为特别支持社区,即日起向全球征集 AI 音乐歌曲作品,9 月下旬进行线下汇演。8 月 1 日更新。 【线上⬆️】:2024 年 7 月 24 日8 月 8 日,Agent 共学活动新一期“谁是人类”全新开启,获得阿里云☁️百炼和通义千问大模型的支持,准备了丰厚奖品。 【线下⬇️】
2025-03-14
Way to AGI 近期更新
Way to AGI 近期更新如下: 3 月 8 日: 《》:专为 AI 小白打造的实用指南,涵盖基础概念、30 分钟 AI 工具速成体验、Deepseek 使用指南、WayToAGI 知识库导航、Coze 智能体搭建等核心内容,适合多种人群,强调实践、通俗易懂、循序渐进,并融入社区互动。 《》:Manus 是 AI 驱动的无图形界面 Linux 虚拟机&浏览器,能运行终端命令、访问网页、调用 API,适用于自动化办公、数据分析等任务,但有一定限制,基于 8 小时直播测试深入体验其能力、限制与未来可能性。 3 月 7 日: 《》:作者夙愿学长介绍 2025 年必用的十大 AI 工具和工作流,涵盖写作、搜索、语音与视频处理等领域,推荐工具如 Claude、Gemini 和 Gamma。 《》:6 号晚的 WaytoAGI 直播中,Manus 展示强大智能,引发 3 万人围观,参与者分享趣味案例,显示 AI 在代理任务中的潜力与挑战。 《》:与传统 AI 不同,“Manus”能完成复杂任务,成为用户在数字世界的“代理人”,创始人强调未来成功关键在于主动寻找和解决问题的能力,AI 将是放大器,创业者应从小目标出发抓住市场红利,核心壁垒在于对动态机会的把握。 此外,还有以下近期活动: :由中国科学技术馆和网易新闻发起,WaytoAGI 作为特别支持社区,即日起向全球征集 AI 音乐歌曲作品,通过专业评审评选出 10 首歌曲,将在 9 月下旬进行线下汇演。 8 月 1 日更新: 【线上⬆️】:Agent 共学活动新一期“谁是人类”全新开启,获得阿里云☁️百炼和通义千问大模型的支持,准备了丰厚奖品,活动时间为 2024 年 7 月 24 日8 月 8 日。 【线下⬇️】
2025-03-08
Way to AGI 近期更新
Way to AGI 近期更新如下: 作者 Allen 发表观点“热爱与行动是通往 AGI 之路”,更新日志包括补充对共创模式的思考及删减部分内容。端午假期实践了三篇教程,个人感觉难度从低到高排序为: Stuart:【入门级】教你用最简单的方式搭建微信机器人,链接:https://waytoagi.feishu.cn/wiki/QWQ0w1QOZiNZz9kreQecY4hYn4c (入门级网速好的话,一个小时能搞定) 张梦飞:【知识库】FastGPT+OneAPI+COW 带有知识库的机器人完整教程,链接:https://waytoagi.feishu.cn/wiki/XnvIwd8NkiDefHkmbobcCfsBnKg 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好,链接:https://waytoagi.feishu.cn/wiki/YeBiwZx2TiyNLMk8pdjcmdQfnjd 此外,Allen 准备调整写作能力训练的工作流,先把初稿发在飞书上,获取大家反馈后再拆分细化。 知识库一周年记录: 过去的一年没有间断的每日更新,会在首页发布每天收录和整理的文档。 2024 年每日更新。 4.6 历史更新,链接:https://waytoagi.feishu.cn/wiki/FjiOwWp2giA7hRk6jjfcPioCnAc 2023 年每日更新,链接:https://waytoagi.feishu.cn/wiki/DyF5w3btkirb4Nk7iWWcuK6Nn0c 每日看项目: 每日看 waytoagi 更新:首页或 每日看 AI 绘画进展: 每日看 AI 绘画关键词: 每周总结看:
2025-03-03
Way to AGI 的近期更新
WaytoAGI 的近期更新包括以下内容: 今日课程直播?:,时间为 8 月 15 16 日。 未来之声2024“科技与艺术的交响”AI 音乐会作品征集启动:,时间为 2024 年 7 月 26 日 9 月下旬。由中国科学技术馆和网易新闻发起,WaytoAGI 作为特别支持社区,即日起向全球征集 AI 音乐歌曲作品,通过专业评审评选出 10 首歌曲,将在 9 月下旬进行线下汇演。 线上活动:,时间为 2024 年 7 月 24 日 8 月 8 日。Agent 共学活动新一期“谁是人类”全新开启!本次活动获得了阿里云☁️百炼和通义千问大模型的大力支持,为大家准备了丰厚的比赛奖品。 线下活动:,活动即将开始报名,举办时间为 7 月 28 日下午 1:00 6:00。 此外,还有观点相关的更新: 作者 Allen 发表了“热爱与行动是通往 AGI 之路”的观点。更新日志包括补充对共创模式的思考,删减部分内容。端午假期实践了三篇教程,个人感觉难度按从低到高排序: 1. (入门级网速好的话,一个小时能搞定) 2. 3. 写在前面:关于加强写作能力的训练,准备调整工作流,先把初稿发在飞书上(可能是原来 2 篇或 3 篇的集合,有一些不方便说的也先发在初稿,后续再删),获取大家反馈后再拆分细化。自我介绍:Allen,一个小镇青年,我们都是 WaytoAGI 共创者。
2025-02-23
Way to AGI 近期更新
WaytoAGI 近期更新如下: 今日课程直播?:,时间为 8 月 15 16 日。 未来之声2024“科技与艺术的交响”AI 音乐会作品征集启动:,时间为 2024 年 7 月 26 日 9 月下旬。由中国科学技术馆和网易新闻发起,即日起向全球征集 AI 音乐歌曲作品,通过专业评审评选出 10 首歌曲,将在 9 月下旬进行线下汇演。 线上活动:,时间为 2024 年 7 月 24 日 8 月 8 日。Agent 共学活动新一期“谁是人类”全新开启,本次活动获得了阿里云☁️百炼和通义千问大模型的大力支持,为大家准备了丰厚的比赛奖品。 线下活动:,活动即将开始报名,举办时间为 7 月 28 日下午 1:00 6:00。 观点方面:作者 Allen 发表了“热爱与行动是通往 AGI 之路”的观点。更新日志补充了对共创模式的思考,删减了部分内容。端午假期实践了三篇教程,个人感觉难度按从低到高排序分别为: 1. (入门级网速好的话,一个小时能搞定) 2. 3. 写在前面:关于加强写作能力的训练,准备调整工作流,先把初稿发在飞书上(可能是原来 2 篇或 3 篇的集合,有一些不方便说的也先发在初稿,后续再删),获取大家反馈后再拆分细化。自我介绍:Allen,一个小镇青年,我们都是 WaytoAGI 共创者。
2025-02-23