跳转至

封面

AI正在破译动物语言:从鲸歌到狗叫,人类终于要听懂地球上的其他物种了

2026年春天,一个由MIT、哈佛和海洋生物学家组成的联合团队发布了一项令人屏息的成果:他们用AI成功从抹香鲸的"咔嗒声"中识别出156种不同的"音素"单元,这些单元像字母一样组合,构成了一套远比人类想象中复杂的交流系统。

如果你养过狗,你一定有过这样的瞬间——它盯着你,歪着头,发出某种声音,而你只能猜:是要吃的?想出门?还是单纯觉得你该陪它玩了?

现在,AI正在把这些猜测变成答案。

从"鲸歌"到"鲸语":地球上最大大脑的交流密码

抹香鲸拥有地球上所有物种中最大的大脑,重达8公斤。它们用一系列快速的咔嗒声——科学家称之为"codas"——在水中传递信息。过去60年,人类只能记录这些声音,却无法理解它们的意思。

2020年启动的Project CETI(鲸类翻译计划),目标做一件听起来像科幻小说的事:用自然语言处理技术解码鲸类的语言。

到了2026年,这个项目取得了突破性进展。研究团队在多米尼克海域部署了大规模水下麦克风阵列,收集了超过9,000段抹香鲸coda录音。最关键的发现来自加州大学伯克利分校的语言学家——他们在2025年底的论文中揭示:抹香鲸的咔嗒声中存在类似人类"元音"和"双元音"的声学结构,频谱特性与人类语言惊人相似。

更震撼的是,2026年5月,团队部署了一台自主水下滑翔机,携带四个水听器,能悄无声息地跟随鲸群进行实时录音。这台滑翔机不需要螺旋桨——它靠浮力驱动,安静得不会打扰鲸鱼的正常交流。

"我们发现它们的codas不是随机噪音,而是有一套'音位字母表',"项目首席科学家David Gruber说,"节奏、速度、装饰音和时长变化,这四种元素组合出了156种不同的基础单元。就像人类用几十个音素组合出无数个单词一样。"

更令人惊讶的是——加勒比海的抹香鲸和太平洋的抹香鲸,"口音"完全不同。不同海域的鲸群使用不同的coda组合方式,形成了类似人类"方言"的文化差异。

抹香鲸研究场景

不只鲸鱼:AI正在翻译整个动物王国

如果你觉得解码鲸语已经很酷,接下来这件事会更让你震惊——类似的AI技术正在被用来分析从鸟到狗的各类动物。

鸟类: 康奈尔大学鸟类学实验室的AI模型Merlin,目前能识别超过10,000种鸟类的叫声,不仅能告诉你"这是什么鸟",还能判断这只鸟是在求偶、警告天敌还是单纯在"唱歌"。

灵长类: 日本京都大学的研究团队用深度学习分析黑猩猩的面部表情和发声,发现它们有超过60种不同的"表达",可以对应"这里有食物""小心蛇""我想理毛"等具体含义。

狗: 德州大学阿灵顿分校的研究人员收集了约50小时的狗叫声,用AI将其转录为"音节",并识别出了可能对应"猫""笼子""遛狗绳"等概念的发音。更有趣的是,他们发现不同品种的狗"口音"也不同——哈士奇随着年龄增长会发展出更长、更复杂的"语句"。

蝙蝠: 墨西哥的一种蝙蝠会用类似"名字"的特定叫声来称呼彼此——这是人类以外极少数被发现使用"个体命名"的物种之一。

密歇根大学的数据更实用:科学家收集了超过7万段狗叫声,用AI模型分析后发现,狗的叫声中包含了年龄、品种、性别甚至情绪状态的信息。AI仅凭一声吠叫就能判断这只狗是开心还是焦虑,准确率达到74%。

给地球装上耳朵:大规模声学基础模型

这些突破背后的核心技术,叫做大规模声学基础模型(Large Acoustic Foundation Models)。

原理不难理解:就像ChatGPT在海量人类文本上训练后学会了理解语言,这些声学模型在海量动物声音数据上训练后,学会了识别声音中的底层模式。

2025年底,非营利组织Earth Species Project发布了NatureLM——一个用超过1,000种物种的声音数据训练的基础模型。它能跨物种识别声音模式,甚至在从未"听过"的物种声音中也能发现规律。

"这就像给整个地球装上了耳朵,"项目联合创始人Aza Raskin说,"我们正在从一个只能听到声音的世界,进入一个能听懂含义的世界。"

最令人惊喜的是AI发现了人类之前没注意到的声音维度。比如,大象不仅通过我们听到的低频隆隆声交流,还会通过地面振动传递信息——这些次声波可以传到10公里之外。AI帮助科学家将声波数据和地震波数据结合分析,发现大象"地面电报系统"的复杂程度远超此前的想象。

Google也在2025年4月推出了DolphinGemma——一个专门用于海豚和鲸类交流分析的基础模型,与Project CETI共享数据和技术。

AI分析动物声音的实验室场景

能听懂了,但能不能"翻译"?

一个现实的问题是:AI真的能"翻译"动物语言,还是仅仅在识别声音模式?

圣安德鲁斯大学的生物声学家Luke Rendell提出了一个关键区分:"理解模式"和"理解语义"是两回事。你可以在完全不懂中文的情况下一眼看出一段文本的情绪是正面还是负面——AI对动物声音的初步分析类似于这种情况。

不过,一些前沿研究正在突破这个边界。

2026年初的一个里程碑式实验格外引人注目:研究人员训练一只边境牧羊犬用按钮来表达需求(类似社交媒体上著名的"会说话的狗"Bunny项目),然后用AI分析按钮组合的规律。结果显示,某些特定按钮组合确实对应着一致的行为结果——当狗按下"外面"+"玩"+"现在",它的确是想要立刻出去玩耍,而不是想吃东西或单纯想引起注意。

"我们离真正的'狗语翻译器'还有距离,但这个距离在快速缩小,"该项目的研究员Federico Rossano说,"AI至少帮我们确认了一件事:动物确实在试图告诉我们一些东西,只是我们一直用错误的方式去听。"

Project CETI团队给自己设定了一个更雄心勃勃的2026年目标:实现与抹香鲸的基本双向交流——不是复杂的对话,而是能传递位置信息和警告信号这类基础内容。

听懂之后,我们准备好了吗?

当技术越来越接近实现真正的跨物种交流,一个更深层的问题浮出水面:如果我们真的能听懂动物在说什么,我们做好准备了吗?

如果养殖场的猪能明确表达疼痛和恐惧,我们还能继续现有的工业化养殖方式吗?

如果鲸鱼能告诉我们它们不想被船撞、不想被声纳干扰,人类的海洋活动需要调整到什么程度?

2026年4月,一群伦理学家、生物学家和AI研究者联合发表《非人类物种交流伦理框架》,提出"理解即责任"原则:一旦我们获得了理解其他物种的能力,我们就自动承担了尊重这种交流的道德义务。

欧洲议会已经开始讨论将"AI辅助动物交流发现"纳入现有动物福利法的可能性。新西兰则在2025年率先承认了鲸类动物的"法人地位"——虽然这个决定和AI无关,但它为未来跨物种权利框架铺了一条重要的路。

一个不那么遥远的未来

回到开头那个问题:你的狗到底在跟你说什么?

巴黎一家创业公司Zoolingua正在开发世界上第一款"狗语翻译App"。他们收集了超过50万段狗叫声和行为视频的配对数据,用多模态AI同时分析声音和身体语言。早期测试中,这款App已能区分"想出门""饿了""有陌生人""我不舒服"四种状态,准确率约78%。

创始人Con Slobodchikoff是一位研究了30年草原犬鼠语言的动物行为学家。他说了一句让人细思极恐的话:"草原犬鼠能用不同的叫声描述捕食者的种类、大小、颜色甚至移动速度。如果一只啮齿类动物都能做到这点,我们的狗一定比我们想象中更想跟我们说话。"

在不久的将来,你蹲下来看着你的狗,它叫了一声,你的手机屏幕上弹出一行字:"我的球滚到沙发底下了,帮我拿出来。"

那一刻,人与动物之间最后那层薄纱,终于被AI掀开了。


关注Curio,一起见证AI如何改写人类与地球上其他物种的关系。