💙 Gate广场 #Gate品牌蓝创作挑战# 💙
用Gate品牌蓝,描绘你的无限可能!
📅 活动时间
2025年8月11日 — 8月20日
🎯 活动玩法
1. 在 Gate广场 发布原创内容(图片 / 视频 / 手绘 / 数字创作等),需包含 Gate品牌蓝 或 Gate Logo 元素。
2. 帖子标题或正文必须包含标签: #Gate品牌蓝创作挑战# 。
3. 内容中需附上一句对Gate的祝福或寄语(例如:“祝Gate交易所越办越好,蓝色永恒!”)。
4. 内容需为原创且符合社区规范,禁止抄袭或搬运。
🎁 奖励设置
一等奖(1名):Gate × Redbull 联名赛车拼装套装
二等奖(3名):Gate品牌卫衣
三等奖(5名):Gate品牌足球
备注:若无法邮寄,将统一替换为合约体验券:一等奖 $200、二等奖 $100、三等奖 $50。
🏆 评选规则
官方将综合以下维度评分:
创意表现(40%):主题契合度、创意独特性
内容质量(30%):画面精美度、叙述完整性
社区互动度(30%):点赞、评论及转发等数据
Character.AI 推出 TalkingMachines 的实时 AI 视频技术
瑞贝卡·莫恩
2025年7月4日 04:27
Character.AI推出了TalkingMachines,这是一项实时AI视频生成的突破,利用先进的扩散模型进行互动式音频驱动的角色动画。
Character.AI 宣布了一项在实时视频生成方面的重要进展,推出了 TalkingMachines,这是一种创新的自回归扩散模型。这项新技术使得创建互动的、基于音频的 FaceTime 风格视频成为可能,让角色能够在各种风格和类型中实时对话,正如 Character.AI 博客所报道的那样。
革新视频生成
TalkingMachines建立在Character.AI之前的工作AvatarFX之上,后者为其平台的视频生成提供支持。这个新模型为沉浸式、实时的AI驱动视觉互动和动画角色奠定了基础。通过仅利用一张图像和一个声音信号,该模型能够生成动态视频内容,为娱乐和互动媒体开辟新的可能性。
TalkingMachines 背后的技术
该模型利用了扩散变压器(DiT)架构,采用了一种称为非对称知识蒸馏的方法。该方法将一个高质量的双向视频模型转变为一个快速的实时生成器。主要特点包括:
对未来的影响
这项突破不仅限于面部动画,为互动视听AI角色铺平了道路。它支持从照片级真实到动漫和3D头像的广泛风格,并且有望通过自然的说话和倾听阶段来增强流媒体。这项技术为角色扮演、讲故事和互动世界构建奠定了基础。
提升人工智能能力
Character.AI的研究标志着多个进展,包括实时生成、高效蒸馏和高可扩展性,能够在仅使用两个GPU的情况下运行操作。该系统还支持多说话者交互,实现无缝的角色对话。
未来展望
虽然这还不是产品发布,但这一发展是Character.AI路线图中的一个重要里程碑。该公司正在努力将这项技术集成到他们的平台中,旨在实现类似FaceTime的体验、角色流媒体和视觉世界构建。最终目标是让每个人都能创造和与沉浸式视听角色进行互动。
Character.AI 在训练基础设施和系统设计方面进行了大量投资,利用了超过 150 万个精心挑选的视频片段和三阶段训练管道。这种方法展示了前沿研究在人工智能技术中的精确性和目标性。
图片来源:Shutterstock