被斯坦福抄袭的中国大模型公司:法定代表人年仅26岁4月刚获数亿融资

 小程序开发    |       2024-06-15

  近日,斯坦福大学AI团队主导的Llama3-V开源模型被证实套壳抄袭国内清华与面壁智能的开源模型“小钢炮”MiniCPM-Llama3-V2.5一事,在网络上引发热议。

  红星资本局了解到,6月3日,面壁智能CEO李大海与联合发起人刘知远先后发文回应此事,称“深表遗憾”:一方面表示这是一种受到国际团队认可的方式,另一方面呼吁大家共建开放、合作、有信任的社区环境。“我们大家都希望团队的好工作被更多人关注与认可,但不是以这样的形式。”

  据第一财经消息,在最新进展中,斯坦福Llama3-V团队的两位作者Siddharth Sharma和Aksh Garg在社交平台上就这一学术不端行为向面壁MiniCPM团队正式道歉,并表示会将Llama3-V模型悉数撤下。

  这家被套壳抄袭的国内大模型企业是什么来头?红星资本局发现,作为“清华系创投”公司,其在今年4月刚刚拿到新一轮数亿元融资。其法定代表人、同时也是技术1号位的曾国洋今年26岁,曾被外界誉为“少年天才”。

  官网显示,面壁智能是一家人工智能大模型技术创新与应用落地企业。公开资料显示,北京面壁智能科技有限责任公司成立于2022年8月,目前由北京清语启航科技中心(有限合伙)持股24.23%,曾国洋持股23.35%。

  而面壁智能的“起源”或许更早。2021年,清华大学计算机系长聘副教授刘知远牵头成立了面壁智能,小组成员大多数来源于清华大学NLP实验室。

  面壁智能的法定代表人曾国洋,同时也是面壁智能的CTO,出生于1998年,今年26岁。 在一些公开信息中不难窥探他“AI神童”的影子:8岁开始学编程,高二获全国青少年信息学竞赛金牌(全国50人)、亚太地区信息学竞赛金牌保送清华;高三时在“中国AI四小龙”之一旷视公司实习,自此正式踏入AI领域。

  在今年4月份的一次采访中,曾国洋曾表示,“并不过分担忧落后的问题。”他提出OpenAI的技术路线可能并不适合自身发展,应该要依据自己的实际情况和优势来制定发展策略。“一味地追求模型参数量这条路是走不通的,大模型的效率会很关键。”

  红星资本局注意到,面壁智能的核心技术小组成员来自国内自然语言处理研究顶尖实验室,均具有知名大学博士和硕士研究生学历。在新闻媒体报道中,面壁智能已拥有超100人的科研团队,平均岁数28岁。团队的“清北”含量80%,除此以外还有来自阿里、字节、百度等一线公司的骨干。

  面壁智能联合发起人、CEO为李大海,北京大学数学系硕士毕业,毕业后加入Google成为Google中国创始员工之一,2015年李大海加入知乎,任知乎合伙人、CTO。

  联合创始人、首席科学家刘知远,为清华大学计算机系长聘副教授,智源青年科学家。在AI领域著名国际期刊和会议发表相关论文200余篇,Google Scholar统计引用超过3.1万次。刘知远曾获教育部自然科学一等奖、中国中文信息学会钱伟长中文信息处理科技奖一等奖、入选国家青年人才计划、《麻省理工科技评论》中国区35岁以下科学技术创新35人榜单。

  今年红杉AI Ascent 2024活动上,AI领域的领军人物吴恩达教授发表了关于AI Agent的前瞻性演讲。在分享中他提到了一个多Agent系统的示例 ——ChatDev,并表示多Agent合作实际效果比想象的更好。

  红星资本局注意到,ChatDev正是由面壁智能联合清华大学NLP实验室共同开发的大模型全流程自动化软件开发框架。

  就在4月11日,面壁智能完成新一轮数亿元融资,由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投支持。

  在今年的中关村论坛年会上,来自面壁智能的AI Agent智能体应用与端侧模型“小钢炮”MiniCPM均亮相“10项重大科学技术成果重磅发布”环节。

  5月28日,面壁智能还公布了关于“小钢炮”的最新进展。李大海在演讲中表示,日前发布的MiniCPM-Llama3-V2.5是当前全球最强端侧多模态模型。以仅8B的体量,取得了超越多模态巨无霸Gemini Pro、GPT-4V的多模态综合性能,并且实现了OCR能力SOTA。

  据介绍,目前新一代“小钢炮”多模态模型已在端侧高效运行:通过首次端侧系统级多模态加速,实现了快150倍的图像编码速度提升。且量化后仅占用8G显存,4070消费级显卡即可轻松推理,并可在手机端以6-8tokens/s速度高效运行。

  原标题:《被斯坦福抄袭的中国大模型公司:法定代表人年仅26岁,4月刚获数亿融资》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。