提升IT素养,从阅读技术文件著手

今年夏天,许多台湾民众都很忙碌,可能都会觉得每周都有不同的议题需要补课,大家都非常认真参与,从民主补课:2024国会职权修法争议、科技补课:2024台北国际电脑展、娱乐补课:2024金曲奖,一直到最近落幕的体育与性别补课:2024巴黎奥运,接下来,还有会计记帐补课:2024年总统选举政治献金申报争议。在关心各种时事的变化之余,也令不少人反思自己的不足与认知盲点,感慨有许多能力是课堂、家庭学不到的。

单就商业与科技领域而言,生成式AI相关消息是最热门的议题,例如,7月底Meta公司释出Llama 3.1,提供4,050亿个参数的旗舰级模型、700亿个参数的高效能模型、80亿个参数的轻量级模型,而且发表之初,就有多达26家合作厂商表态支援,Meta也特地列出其中10家厂商与支援的特色多寡对照表,并且公开内容多达92页的研究论文《The Llama 3 Herd of Models》,到了8月初,他们发表另一篇14页内容的论文《RDMA over Ethernet for Distributed AI Training at Meta Scale》。

在台湾,我们看到Nvidia与AWS发出中文新闻稿,在社交网站、网路社团、Podcast上,也有一些关注AI发展的专家介绍这项技术突破。针对这项众所瞩目的生成式AI模型最新进展,我们也想尽一份心力,与大家一起解读Meta公司发布的技术文件,于是,有了这次封面故事的报导,由我们的技术主笔张明德整理当中的硬体基础架构组成,凭借我们对企业级IT基础架构相关技术的了解,一起让更多人认识用来训练生成式AI模型的超大规模运算环境,希望社会大众对于AI硬体技术的讨论,不要仅止于各品牌的竞争、市场供需的议题,而能够多花一些心力更深入理解个别技术的内涵。

正如超微(AMD)执行长苏姿丰先前在Computex来访时,曾说:台湾是唯一说到CoWoS先进封装,每人都能理解的地方,在AI当红的此刻,许多人对于GPU、HBM记忆体、CXL等技术都能侃侃而谈,尤其是广大股民,然而,各种元件的发展脉络,以及彼此之间的具体连动关系,却可能一知半解!期盼大家除了看每天的新闻与公司公告的财报,也能到相关厂商的网站,亲自阅读与整理他们的产品规格、技术文件、解决方案简介与白皮书,甚至是他们发表的重要研究论文,从中可以建构你自己的观察。现在生成式AI很方便,如果看不懂内容,也可以请AI帮你解释、旁征博引。

如果还是觉得很麻烦、很花时间,目前有许多专业的科技媒体、Podcaster会持续追踪热门的科技议题,帮大家进行初步的解读与整理,这些都是可以参考的消息管道,之后再根据自己较关切的议题深入了解。而且,时间一久,大部分技术都会推陈出新,各种技术之间往往会出现相互竞争、合作,甚至发生取代、汰除的状况,在它们进行更迭之际,我们也有机会透过厂商的宣传资讯、社群讨论,去了解个中优劣差异。

事实上,当前我们处于一个公开资讯充斥甚至泛滥的时代,幸运的是,想要了解一个技术议题,多半都找得到各种说明文件,如今也有AI助手协助降低语言与理解相关发展脉络的隔阂,但不幸的是,众声喧哗,杂讯、谣言、假消息、阴谋论俯拾皆是,如果未能建立自己的识读能力,往往就无法判断事情的真伪,而高估或轻视个别产品或技术的能耐与发展成熟度。

若要减少误会,首先仰赖技术源头端的资讯供给,开发与维运团队透过文件、影片等各种资讯形式,标榜功能、特色的突破与改善之余,能否在保护企业营业机密的条件之下,揭露运作原理、建置架构、上线之后营运的成功与失败经验。因为有了这些情报的佐证,能够更大程度地帮助众人认知此项产品或技术的发展状态,想要巩固市场信心,这些内容的公开很重要,例如,Meta对于生成式AI模型的发展,就做出很好的示范。

另一个关键是阅听众须培养主动求知的习惯,随著知识与教育的普及,资讯科技并非高不可攀,想要具备了解这方面进展的能力,目前有许多管道可以帮忙养成,但如果大家空有好奇心却不愿积极、主动接触,终究流于人云亦云、随波逐流,而无法真正认清技术发展的态势,相当可惜。

 相关报导