如果说ImageNet改变了计算机视觉,那么在知识图谱领域能够拥有与之分量匹敌的数据集就非OGB(Open Graph Benchmark)莫属。仅仅三年时间,OGB-wikikg2就被冠以知识图谱“世界杯”的荣誉。

就在近期最新一轮的知识图谱实力“角逐赛”中,度小满团队凭借自创的TranS 模型占据榜首。与之同台竞技的对手包括深度学习三巨头、图灵奖得主LeCun、Yoshua Bengio坐镇的Meta FAIR实验室和MILA实验室,还包括360、蚂蚁金服、第四范式等耳熟能详的国内大厂。

那么度小满这次夺冠的OGB挑战赛,到底是什么来头?为何会引得全球头部玩家都聚焦于此同台竞技?

OGB挑战赛由斯坦福大学于2019年发起,是国际公认的知识图谱基准数据集代表,它的提出是为了促进可扩展、可重复的图机器学习(ML)研究,赛事具有质量高、规模大、场景复杂、难度高等特性。此次度小满夺冠的OGB-wikikg2是OGB三大类任务之一,这项任务,需要在1700多万个事实三元组中精准预测实体间的潜在关系。

这项赛事已经成为了众多科技巨头、科研院所和高校团队试验技术成果的试金石。例如全球顶级人工智能实验室Meta FAIR,也会选择OGB-wikikg2来展示自身的实力。FAIR成立于2013年,可谓是汇聚了AI界的顶级人才,图灵奖得主、深度学习三巨头之一的Yann LeCun坐镇该实验室。其它大牛还有VC维和SVM的缔造者Vladimir Vapnik、提出随机梯度下降法的Léon Bottou,做出高性能PHP虚拟机HHVM的作者们。当然还包括像何恺明、田渊栋这样的知名华人AI学者。

从FAIR实验室“走出来”的科研项目,很多都可以说是在AI界里名声大噪。例如“换脸神器”DeepFace、构建自然语言问答系统的Memory Networks,以及开源深度学习框架Torch的更新和推广等等。

另一位图灵奖得主、深度学习巨头Yoshua Bengio坐镇的MILA实验室,也选择OGB-wikikg2作为“试炼场”。MILA实验室是目前学术界从事深度学习和强化学习最大的实验室。

推荐内容