谷歌的一名工程师最近声称该公司的人工智能技术已经变得“有知觉”,这引起了媒体的热烈关注。 每一篇关于天网和 HAL 9000 的笑话的文章,都会有另一篇文章假设它一定是真的,并质疑这一切的道德规范。
大多数报道都没有认识到这项技术的进步有多远、有多快,以及它对我们日常生活的影响有多广泛,无论大小。
就在十年前的 2012 年 6 月 26 日,《纽约时报》报道了谷歌利用机器学习进行深度学习的发现,本质上是教计算机利用大量数据进行自我训练。 这篇文章的标题是需要多少台计算机来识别一只猫? 16,000。 今天,我们为疾病的早期诊断提供了餐厅建议,几乎所有的事情都是由人工智能和机器学习驱动的。
事实上,谷歌、微软、亚马逊等公司已经在人工智能技术上投资了数十亿美元。 数百家公司的一些世界上最聪明的工程师每天都在开发新的应用程序。
还有改进的空间。 人们不想要功能不如人类交互或其他现有软件解决方案的人工智能体验。 他们想要更少的《矩阵》和更多由人工智能驱动的体验,这些体验易于使用,并且在他们需要时可以完美地工作。 我们怎么去那里?
如何让人工智能更有效
从数据开始
在开始任何类型的人工智能项目之前,了解保持人工智能应用程序最新所需的数据量非常重要。 使用机器学习的人工智能应用程序经过“训练”,通常需要数千个示例才能在实际使用中成功返回正确的结果。 用户与技术交互的方式随着时间的推移而变化,因此为了保持准确性和一致性,他们必须不断使用越来越多的数据重新训练和验证他们的算法。
即使是最大的公司也难以扩展数据管理。 大多数公司都大大低估了推出成功的人工智能应用程序所需的时间——开发时间可能与传统应用程序相同,但培训、测试和验证产品需要更多的时间。
添加更多(且更多样化)的数据
当涉及到数据时,无论你拥有什么,都可能还不够。 更多的数据意味着算法需要更多的学习。 早期或较小的样本量使得识别趋势和建立准确的相关性变得困难。 然而,由开发人员、数据科学家和质量保证专家组成的内部团队无法提供足够多样化的年龄范围、性别和背景样本来训练系统。 他们根本不能代表更广泛的人群,尽管他们的初衷是好的,但这种缺乏多样性给底层算法带来了固有的偏见。
避免此问题的最佳方法是利用代表真实用户多样性的社区来确保训练数据的质量、数量和多样性。 这是消除偏见的关键一步,并为 AI/ML 产品提供了持续学习和改进的能力。
用人类来测试人工智能
是的,你没看错。 收集和处理数据可以实现自动化,但机器目前无法有效、彻底地验证另一个人工智能系统——只有真人才能确定哪些系统运行良好、哪些地方存在问题以及哪些过程出现问题。
测试数字体验可以通过利用全球数字专家社区代表目标客户群来实现,以满足客户需求并识别错误、偏见和潜在缺陷。 这种经过众测的方法可以帮助组织确保他们正在推出的人工智能应用程序不会弊大于利。
“良好”的人工智能体验是什么样的?
当人们谈到有感知力的人工智能时,他们通常指的是能够以一种自然、自由的方式进行对话的系统,这种方式不限于一种特定的用例。 消费者现在拥有的许多人工智能交互都是缓慢且令人沮丧的,最糟糕的是,最终需要消费者与人类支持代理交谈,这完全违背了使用人工智能的初衷。
未来,无论何种应用程序,良好的体验都将是超个性化的,并且可以跨不同设备和位置无缝跟踪。 随着人工智能技术的发展变得越来越“真实”,提供良好体验的公司是那些记住真实用户需要在任何有关用户体验的对话中保持领先和中心的公司。