0

0

T前线 | 专访腾讯AILab:将成果由“点”到“线”,实验室不止于实验

王林

王林

发布时间:2023-04-09 09:51:10

|

2760人浏览过

|

来源于51CTO.COM

转载

嘉宾:史树明

撰稿:莫奇

审校:云昭

“大多数研究工作往往是围绕一个点展开,而点状的成果很难直接被用户所用。”腾讯 AI Lab 自然语言处理中心总监史树明说道。

过去十余年间,人工智能(AI)经历了复兴,其中很显著的技术进步也发生在自然语言处理(NLP)领域。NLP技术的进步使得机器翻译质量大幅提高,搜索和推荐更加精准,同时也催生了更多数字化场景应用,如对话机器人、智能写作等。那么,作为AI皇冠上的明珠,NLP领域在吸引了无数国内外企业、人才、资本的入圈后,各种要素都是如何推动其研究进展的?企业是如何将研究成果孵化落地的?相关从业者又是如何看待AI在发展中的瓶颈和争议的呢?

近日,"T前线"有幸采访了腾讯 AI Lab 自然语言处理中心,希望能借此由“人工智能实验室”的视角窥得其中一隅。

不止步于实验:还注重将成果的落地与开源

T前线:腾讯 AILab 实验室在自然语言处理方面,有哪些方向的探索呢?

史树明:腾讯 AI Lab 的自然语言处理团队在文本理解、文本生成、智能对话、机器翻译这四个方向上开展研究工作。成果方面,从论文发表情况来看,最近三年,团队每年在一流国际会议和期刊上发表50多篇学术论文,居国内研究机构前列;值得一提的是,我们有两篇论文分别被评为NAACL'2021的最佳论文和ACL'2021的杰出论文。学术比赛方面,我们多次获得重量级比赛的冠军,比如在去年的国际机器翻译大赛WMT'2021上获得5项任务的第一名。

除了论文和学术比赛之外,我们还有意识地把我们的研究成果转化成系统和开源数据,开放给公司内外用户使用。这些系统和数据包括文本理解系统TexSmart、交互翻译系统TranSmart、智能创作助手「文涌(Effidit)」、包含800万词汇的中文词向量数据等。

2018年底发布的中文词向量数据被外界称为“腾讯词向量”,它在规模、精度、新鲜度方面处在领先水平,受到业界的广泛关注、讨论和使用,在多项应用中不断提升性能。与同类系统相比,文本理解系统TexSmart提供细粒度命名实体识别(NER)、语义联想、深度语义表达、文本图谱等特色功能,荣获第十九届中国计算语言学大会(CCL'2020)最佳系统展示奖。交互翻译系统TranSmart是国内首个公开的交互翻译互联网落地产品,提供翻译输入法、约束解码、翻译记忆融合等亮点功能。它支持了公司内外众多的客户、业务和场景,包括联合国文件署、Memsource、华泰证券、腾讯音乐、阅文网文出海、腾讯游戏出海、腾讯自选股文档翻译等。前一段时间我们发布的智能创作助手「文涌(Effidit)」提供多维度的文本补全、多样化的文本润色等特色功能,用AI技术辅助写作者发散思路、丰富表达,提升文本编辑和写作的效率。

T前线:智能协作方面,能以「文涌(Effidit)」为例,谈一下项目的起源和最新情况吗?

史树明:智能写作助手Effidit项目是在2020年国庆节之前启动的。做这个项目主要有两方面原因:一是写作中存在痛点问题,二是这个场景所需要的NLP技术,与我们团队的能力积累相符。

首先来谈谈写作中的痛点:我们在生活和工作中经常需要阅读新闻、小说、公众号文章、论文、技术报告等,也需要写一些东西,比如技术文档、会议纪要、汇报材料等。我们可以发现,阅读的过程通常是轻松愉快、毫不费力的,但写作就不一样了,经常不知道怎样用合适的文字表达心中的想法,有时候费很大劲写出来的句子和段落还是显得干巴巴的,中间还容易出现错别字。或许大多数人更擅长阅读而不是写作吧。于是我们就想到能否利用技术来解决写作中的痛点问题,提升写作的效率?

再来谈谈启动这个项目的第二个原因:我们一直在思考NLP技术如何提升人类的工作效率和生活品质?过去几年,我们在文本理解、文本生成、机器翻译等NLP的子方向上开展了深入的研究工作。大多数研究工作往往是围绕一个点展开,而点状的成果很难直接被用户所用。因此我们下意识地把若干点状的研究成果串在一起,构成一条线,也就是一个系统。我们一直在寻找文本生成方向研究成果的落地场景。考虑到前面谈到的写作中的痛点,我们讨论后决定启动智能写作助手Effidit项目。

经过一年半的研发,第一个版本已经问世。接下来我们会持续迭代优化,听取用户反馈,提升各项功能的效果,力争产出一款好用的、受用户欢迎的工具。

可信AI:可解释性、鲁棒性研究尚需挖掘

T前线:近些年,可信AI得到了界内人士的关注,您能否谈一下在NLP领域内可信AI的理解与进展?

史树明:我对可信AI了解不多,只能谈一些粗浅的想法。可信AI是一个抽象的概念,目前还没有一个准确的定义。不过从技术角度来说,它包括很多要素:模型的可解释性、鲁棒性、公平性和隐私保护等。近年来,基于Transformer结构的预训练语言模型,在很多自然语言处理任务上展现出惊人的效果,引起了人们的广泛关注。然而,这类AI模型本质上是数据驱动的黑箱模型,它们对预测结果的可解释性较差、模型的鲁棒性也不是很好,而且它们容易学习到数据中固有的偏置(比如性别偏置),导致模型在公平性上也存在一些问题。比预训练语言模型更早出现的词向量也有性别偏置的问题。目前,一方面构建可信的AI模型是机器学习和NLP领域一个受关注的研究方向,有不少研究工作,也取得了一些进展。另一方面这些进展距离目标还差得很远,比如在深度模型的可解释性方面,进展还不算特别大,还没有迈出亮眼的关键一步。

我所在的腾讯AI Lab也正在可信AI方面开展一些研究工作。腾讯AI Lab自2018年起持续投入可信AI工作,并在对抗鲁棒性、分布迁移学习及可解释性三大方向取得了一些成果。未来,腾讯AI Lab将重点关注AI的公平性和可解释性,并持续探索相关技术在医疗、医药、生命科学等领域的应用。

难点聚焦:统计方法无法从根本上理解语义

T前线:您觉得现阶段 NLP 的研究的瓶颈在哪里?未来有哪些方向?

史树明:从自然语言处理这个研究领域出现以来,它所面临的最大瓶颈就是如何真正地理解一段自然语言文本所表达的语义。这个瓶颈到现在为止还没有被突破。

人类是真正具有理解自然语言的能力的,比如当我们看到“她喜欢蓝色”这个句子时,我们知道它的含义,知道什么是“喜欢”,什么是“蓝色”。而对于NLP算法而言,它在处理上述句子时跟我们看到一门不知名外语的句子“abc def xyz”没有本质区别。假设在这门不知名外语中,"abc"表示"她","def"表示喜欢,"xyz"表示"绿色"。当我们对这门外语一无所知的时候,我们是看不懂这门外语的任何句子的。如果我们有幸看到大量的用这门外语书写的句子,我们有可能在上面做一些统计分析,试图建立这门外语的单词跟我们母语中的词的对应关系,希望达到最终破解这门语言的目的。这个过程难度不小,不能确保最终能够成功。

对于AI来说,它所面临的情况比我们人类破译一门不知名外语还要糟糕。我们有生活的常识,有母语单词与头脑内部概念的映射,而AI则没有这些东西。NLP研究中的符号方法试图通过文本的符号化表达和知识图谱给AI附加跟人类类似的能力,试图从根本上解决理解的问题;而统计方法则是暂时忽略掉常识和头脑内部概念等,将着力点放在改进统计方法和充分利用数据本身的信息。到目前为止,第二种方式是业内研究的主流,也取得了更大的成功。

PixVerse
PixVerse

PixVerse是一款强大的AI视频生成工具,可以轻松地将多种输入转化为令人惊叹的视频。

下载

以统计NLP在最近十年的瓶颈突破和进展来看,词向量技术(即用一个中等维度的稠密向量来表示一个词)突破了词的可计算性瓶颈,结合深度学习算法和GPU算力,拉开了最近十年NLP一系列突破的序幕。新的网络结构(如Transformer)和范式(如预训练)的出现又大大提升了文本的可计算性和文本表示的效果。但由于统计NLP没有像人类那样很好地对常识和基础概念进行建模,无法从根本上理解自然语言,也就很难避免出现一些常识错误。

当然,研究界也始终没有放弃在符号化和深度语义表示方面的努力,最近十多年在这方面最有影响力的尝试包括Wolfram Alpha和AMR (Abstract Meaning Representation)等。这条路非常辛苦,面临的主要挑战是对大量抽象概念的建模以及可扩展性(即从理解高度正规化的句子扩展到理解一般的自然语言文本)。

未来在基础技术方面可能的研究方向包括:新一代语言模型、可控的文本生成、提升模型的跨领域迁移能力、有效融入知识的统计模型、深度语义表示等。这些研究方向对应的是NLP研究中一些局部的瓶颈。在应用方面需要探索的方向是如何利用NLP技术提升人类的工作效率和生活品质。

研究与落地:二者之间如何平衡?

T前线:AI Lab NLP方向在基础研究、前沿技术和工业化落地方面是如何探索和布局的?下一步打算有哪些?

史树明:在基础研究方面,我们的目标是寻求基础研究的突破,解决目前研究中的一些瓶颈问题,力争产出像Word2vec、Transformer、Bert那样原创性的、有用的、有重大影响力的成果。为了实现这个目标,我们一方面给基础研究人员以较大的自由度,鼓励做一些长远的有潜在影响力的事情;另一方面整个团队成员通过脑暴等方式,选择若干需要重点突破的方向,大家一起发力。

在工业化落地方面,除了面向公司现有的产品进行技术转化之外,重点打造一两款我们自己主导的技术产品,目标是融合研究成果,提升人的工作效率或生活品质。这些技术产品包括面向翻译人员的交互翻译系统TranSmart和面向文字编辑和写作场景的智能创作助手Effidit。我们会持续打磨这两款技术产品。

寻昆山之玉:研究人员需要一定的自由度

T前线:于科研部门而言,您觉得研究员与算法工程师有哪些不同的侧重?

史树明:在我们团队,算法工程师的职责包括两点:一是实现或优化现有的算法(比如某篇已经发表的论文中的算法),二是实现及打磨技术产品。而研究员的职责除了包括算法工程师的两个职责之外,还包括提出及发表原创性的研究成果。这种划分也不是绝对的,边界比较模糊,很大程度上取决于员工本人的兴趣以及项目的需要。

T前线:作为管理者,实验室的团队管理与传统的技术工程师管理的方法与理念有哪些不同?

史树明:对于业务团队来说,技术工程师需要紧密合作,通过一定的项目管理流程,把已经规划好的产品做出来。实验室团队往往由基础研究人员和技术工程师构成(可能还包括少量的产品和运营人员)。对于基础研究来说,需要给研究人员更大的自由度,少“指导”多帮助,尊重其兴趣,激发其潜能,鼓励其做一些长远的有潜在影响力的事情。基础研究的突破往往不是自上而下规划出来的,也不是通过项目管理流程管理出来的。另一方面,实验室团队在打造技术产品的时候,则需要研究人员和技术工程师更多地协同合作,辅之以轻量级的项目管理流程。

实验室AI岗位:选人更看重“三好”,内心足够强大

T前线:如果有一个应聘者,研究能力很强,在高水平会议上发表了很多论文,但工程化能力较差,您会录用吗?

史树明:这个问题很好,这是我们招聘时经常遇到的问题。理想情况下,学界和业界都希望培养或招募到研究能力和工程能力都非常强的人才,但是这样的人在实际当中凤毛麟角,往往还是各个公司和研究机构争抢的对象。在面试过程中,对于研究能力特别出众的候选人,我们对其工程能力的要求会相应降低,但必须高于一个基础阈值。同样,对于工程能力超强的候选人,我们对其研究能力的要求也会降低一些。在实际工作过程中,如果安排得当,研究能力强的和工程能力强的员工通过合作会发挥各自的优势,一起把项目完成好。

T前线:您最看重候选者哪些能力?

史树明:沈向洋博士说过招人的要求是“三好”:数学好、编程好、态度好。数学好对应的是一个人的研究潜力,编程好对应的是工程能力,而态度好则包含“对自己的工作充满激情”、“与同事能够合作共赢”、“做事靠谱”等内容。这三点是很多研究机构所看重的。实际面试过程中往往通过看论文发表记录和聊项目来评估候选人的研究能力以及潜力,通过编程测试和项目产出来评估候选人的工程能力,通过整体的面试过程来推测候选人是不是真的“态度好”。这种推测和评估的方式有时会看走眼,但总体来说准确度还是挺高的。

还有一些能力很难通过一两个小时的面试去判断,但是如果招进来的员工具有这些能力,就算是捡到宝了。第一是选择重要的研究课题的能力。第二是完成一件事情的能力。缺乏这种能力的人或团队可能总是频繁地启动各种课题或项目,但是这些课题和项目总是不能被高质量地完成,而往往是虎头蛇尾,不了了之。这里面可能跟执行力、毅力、聚焦意识、技术水准等都有一些关系。第三是忍受孤独和非议的能力。重要的有影响力的事情,在影响力出来之前往往不被大多数人理解;如果内心不够强大,不能忍受孤独和非议的话,可能很难坚持下去,从而很容易放弃初心,跳入已经是红海的当前热点中去内卷。

T前线:目前对于应届毕业生和转行进入人工智能领域的技术人分别有哪些建议?

史树明:每位毕业生的学历、在读学校和参与项目情况各不相同,转行进入人工智能的技术人在专业和人生经历方面更是千差万别,很难给出太多普适的建议。暂时只能想到几点:第一,千万不要只埋头做事情而忽略了信息和情报的收集。多找几位师兄师姐或朋友打听情况,听他们介绍当前工作的情况以及对不同的工作类型和各个工作单位的评价,了解他们走过的路、踩过的坑。同时通过论坛、公众号、短视频等多种方式收集信息,帮助自己在这个人生的关键节点来做决策。第二,如果你距离毕业还有一年以上的时间并且还没有实习经历的话,找一个靠谱的地方做实习。通过实习,一方面可以积累实战经验,提升能力,提前体验工作的感觉;另一方面实习经历也会让你的简历更加丰满,提升找工作时的竞争力。第三,工作中内卷总是难免的,事事如意也是不可能的,控制预期,调整好心态,想办法消化转变所带来的落差情绪。第四,安顿下来之后,别忘了自己的梦想,努力奋斗,完成一件对得起自己能力的事情。

祝每一位毕业生能找到心仪的工作并在工作岗位上得到成长,祝每一位转行进入人工智能领域的技术人能够在AI这个新赛道享受奋斗带来的快乐和收获。 

嘉宾介绍

史树明,毕业于清华大学计算机系,目前是腾讯 AI Lab 自然语言处理中心总监。他的研究兴趣包括知识挖掘、自然语言理解、文本生成以及智能对话。他在ACL、EMNLP、AAAI、IJCAI、WWW、SIGIR、TACL等学术会议和期刊上发表了100多篇论文,H-index为35。他曾担任EMNLP 2021和CIKM 2013的系统展示主席(demonstration co-chair),KDD2022的资深程序委员会委员,以及ACL、EMNLP等会议的程序委员会委员。


热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

89

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

276

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

59

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

99

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

105

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

230

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

619

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

173

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
光速学会docker容器
光速学会docker容器

共33课时 | 2.1万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号