以微软公司打造的「GPT-3」系统为例,它由电子书、线上写作搜集到庞大数据库为依托,目前已能写出依客户要求的大多数文本,写出真像人类著作的段落。例如申请动物饲养员工作的求职函,或者莎士比亚风格的十四行诗咏叹火星,被视为新一代AI演算系统里最为先进,可以与人交谈、按要求写出读得懂的文本,甚至生产新颖的照片及短片。
这些强大的AI系统严格的名称叫「大型语文模型」(large language models),原因在它们是由超庞大文本库及其他媒体锻炼而得,目前就担任聊天机器人、谷歌搜寻及自动填完电子邮件字眼、句子等工作,都做得让人很欣慰。
但「GPT-3」系统也有出糗的时候,波莫纳学院(Pomona College)教授史密斯问GPT-3一个简单但无意义的问题,谈「走上楼」,此时AI就露馅了;它回答说,「是啊!你用手爬而走上楼,满安全,只要你先洗过」。
目前学术界盼AI开源以提供纠错功能 但科技公司都不愿配合。这些只是打造这些AI语文系统的科技巨擘,向来对其内部演算法讳莫如深,让外人很难搞懂系统瑕疵,而瑕疵可能让这些AI语文系统成为假消息、种族仇恨及其他伤人言词的源头。
AI初创公司Hugging Face的研究工程师勒斯考(Teven Le Scao)形容说,这些大型语文模型擅长以人类语文能力来撰写文本,但驾驭事实方面就没那么高明;写出来的文本看似连贯,几乎像真的,但经常出错。
在法国政府资助下,勒斯考率领一群AI研究员组成「大科学」(BigScience)联盟,于7月12日起启动另一新的大型语文「大科学大规模开放科学、开放管道多语文」模型,其宗旨照理而言,可充当封闭式系统如GPT-3的矫正手段。
不光勒斯考的集团,脸书的母公司Meta也呼吁要采取更开放的措施;史丹福大学电脑学教授柏西‧梁(Percy Liang)表示,各科技公司有竞争压力,想打造出最流畅、资讯力最强的系统,再由其应用程式获利,所以对自己系统守口如瓶,不愿配合学术界准则。
Copyright ©2024 Big Data - All Rights Reserved | Data Powered By BIG DATA | Designed By Vincent