你的AI技能没你想的那么值钱,来自一位AI前辈的忠告!
AI公园
•
•
人工智能
作者:Ryszard Szopa
编译:ronghuaiyang
导读
随着技术的发展,AI的门槛实际上是越来越降低了,当小学生都开始学人工智能的时候,你还觉得你的AI技能那么值钱吗,对于产业界来说,什么才是真正重要的呢,我觉得每一位AI从业者都应该看一看这篇文章。
我们正处于人工智能的繁荣时期。机器学习专家的工资高得惊人,投资者在见到人工智能初创企业时乐于敞开心扉,掏出支票簿。确实如此:这是每一代人都会经历一次变革的技术之一。科技已经存在,它将改变我们的生活。
这并不意味着让你的人工智能初创企业成功是件容易的事。我认为,在任何人试图围绕人工智能建立业务之前,都有一些重要的坑需要注意。
我的儿子和我,图像处理使用艺术风格转移。这种方法激发了我对深度学习的兴趣。
你的AI技能的价值在下降
2015年,我还在谷歌,开始玩disbelief(后来改名为TensorFlow),这个东西很烂。写出来的东西并不完全符合你的期望,这是一件非常尴尬的事情。让它在谷歌构建的系统之外工作的想法是一个白日梦。
2016年下半年,我在做一个概念验证,用组织病理学图像检测乳腺癌。我想用迁移学习:使用Inception,谷歌的最佳图像分类架构,并重新训练我的癌症数据。我使用谷歌提供的预训练的初始权重,只是更改顶层以匹配我正在做的事情。经过长时间在TensorFlow中的反复尝试,我终于找到了如何操作不同图层的方法,并使其基本工作。这需要很大的毅力和阅读TensorFlow的资源。至少我不用太担心依赖关系,因为TensorFlow的人很幸运地准备了一个Docker映像。
2018年初,由于缺乏复杂性,上述任务并不适合实习生的第一个项目。多亏了Keras (TensorFlow之上的一个框架),你只需几行Python代码就可以做到这一点,而且不需要深入了解你在做什么。仍然有点痛苦的是超参数调优。如果你有一个深度学习模型,你可以操纵多个旋钮,比如层的数量和大小等。如何获得最优配置并不简单,一些直观的算法(如网格搜索)执行得并不好。你做了很多实验,感觉更像是一门艺术而不是科学。
当我写这些话(2019年初)的时候,谷歌和亚马逊提供服务自动模型调优(Cloud AutoML, SageMaker),微软也计划干同样的事情。我预测手动调优将会像渡渡鸟一样,可以很好的摆脱掉。
我希望你们能看出规律。过去困难的东西现在变得很容易,你可以获得更多而只需要理解很少。过去伟大的工程壮举开始听起来相当小儿科,而且我们不应该期望我们现在的壮举在未来会更好。这是一件好事,也是惊人进步的标志。我们将这一进步归功于谷歌这样的公司,他们在这些工具上投入了大量资金,然后免费提供这些工具。他们这样做的原因有两方面。
把你商品化之后你的办公室
首先,这是对他们实际产品(云基础设施)的商品化补充的尝试。在经济学中,如果你倾向于同时购买两种商品,那么它们就是互补的。例如:汽车和汽油,牛奶和麦片,培根和鸡蛋。如果一种互补品的价格下降,对另一种互补品的需求就会上升。对云计算的补充是运行在云计算之上的软件,而人工智能也有一个很好的特性,那就是它需要大量的计算资源。因此,使其开发尽可能便宜是很有意义的。
谷歌特别热衷于人工智能的第二个原因是,相对于亚马逊(Amazon)和微软(Microsoft),它们拥有明显的优势。他们起步较早,正是他们普及了深度学习的概念,所以他们成功地吸引了很多人才。他们在开发人工智能产品方面有更多的经验,这使他们在开发必要的工具和服务方面具有优势。
尽管取得了令人兴奋的进展,但对于在人工智能技能方面投入巨资的企业和个人来说,这都是坏消息。今天,他们给你一个坚实的竞争优势,因为培训一个有能力的ML工程师需要花大量的时间阅读论文,和一个坚实的数学背景。然而,随着工具的改进,情况将不再是这样。它将更多地成为阅读教程,而不是科学论文。如果你不尽快意识到你的优势,一群图书馆的实习生可能会吃掉你的午餐。尤其是,如果实习生有更好的数据,这就引出了我的下一个观点……
数据比酷炫的AI架构更加重要
假设你有两个人工智能创业公司的创始人,Alice和Bob。他们的公司筹集了大约相同数量的资金,在同一个市场上展开了激烈的竞争。Alice把钱于最优秀的工程师和在人工智能研究方面有着良好记录的博士。Bob雇佣平庸但有能力的工程师,并把钱花在给她更好的数据上。你会把钱押在哪家公司?
我完全相信Bob。为什么?从本质上讲,机器学习是通过从数据集中提取信息并将其传递给模型权重来实现的。一个更好的模型在这个过程中更有效率(就时间和/或整体质量而言),但是假设一些充分性的基线(也就是说,模型实际上正在学习一些东西)更好的数据将胜过更好的体系结构。
为了说明这一点,让我们进行一个快速而粗略的测试。我创建了两个简单的卷积网络,一个更好,一个更差。较好的模型的最后一个dense层有128个神经元,而较差的模型只有64个神经元。我将他们在MNIST数据集的子集上训练,并将模型的准确性与他们训练的样本的数量进行了对比。
蓝色是“较好的”模型,绿色是“较差的”模型。