9 月 4 日消息,随着微软、亚马逊、谷歌以及 Facebook 母公司 Meta 等公司相继开发和部署人工智能,大科技企业所谓保护环境、注重可持续发展的形象与新的现实大相径庭。
由于用于训练大模型的 GPU 耗电量巨大,新的数据中心运行需要大量电力和水,人工智能对环境的影响越来越像是一种危害。
亚马逊位于弗吉尼亚州北部的庞大数据中心所消耗电力已经超过西雅图的整个电网。谷歌数据中心在 2022 年消耗了 52 亿加仑的水,比上一年增长了 20%。Meta 人工智能模型 Llama 2 运行期间的耗水量也很大。
图源 Pexels作为人工智能领域的主要参与者,这些大公司都在宣传他们如何通过一些环保项目来抵消日益增加的环境负担。比如微软承诺,位于亚利桑那州的数据中心一年中有一半以上时间都不用水。谷歌最近宣布与人工智能芯片巨头英伟达合作,计划到 2030 年按公司办公室和数据中心耗水量的 120% 补充淡水。
华盛顿大学某研究中心联合主任阿德里安娜・拉塞尔(Adrienne Russell)认为,这些做法可能都是公司的巧妙营销。
她表示:“长期以来,科技行业一直在努力让数字创新看起来符合环境可持续发展的策略,但事实并非如此。”
为了说明科技企业将数字创新、可持续发展联系在一起,她列举了云计算以及苹果产品的营销和展示方式。
如今,这种营销手段又被用来展示人工智能如何对环境更友好。
在英伟达今年 8 月份发布最新季度财报中,首席执行官黄仁勋表示,与“通用计算”相比,人工智能主导的“加速计算”、也就是英伟达销售的产品运行成本更低更节能,而“通用计算”对环境的影响相对更大,成本更高。
但事实恰恰相反。投行 Cowen 最近的一份研究报告估计,运行人工智能的数据中心耗电量可能是传统设施的 5 倍以上。英伟达供应的每块 GPU 功率大约是 400 瓦,每台人工智能服务器的功率就有 2000 瓦。加州大学河滨分校研究现代人工智能模型如何利用资源的研究员 Shaolei Ren 表示,普通云计算服务器的功率是 300 至 500 瓦。
拉塞尔说:“有一些东西总会随之出现,所谓可持续发展和数字创新齐头并进都是假的,比如‘你可以保持增长’、‘一切都可以大规模扩展,而且仍然都很好’,以及一种技术能适合所有人都是说辞。”
随着更多企业希望将大语言模型融入更多业务,人工智能对环境的影响可能会加剧。
拉塞尔认为,更好的方法是专注于能实现可持续发展的创新,比如分布式网络和本地化的数据隐私倡议。各个网络社区可以根据自己的条件,用不那么依赖大型科技公司的方式控制数据处理和网络连接。
她说:“如果你找出一些例子,不管多么小,只要实际上真的是在设计能可持续的技术,那么我们就可以开始批评这些在环境和社会上都不太可持续的大型科技公司。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/716/715.htm]