尽管人工智能(AI)在过去几年内得到了广泛应用,但据最新研究发现,在引入最新的 GPT-4 模型之后,ChatGPT 仍无法取代普通数据分析师的能力。
根据麦肯锡发布的《2022年 AI 现状》报告,自 2017 年以来,AI 的采用率已翻了一番以上,高达 60% 的组织至少在一个业务领域使用它。IDC 估计全球在 AI 上的支出将达到 1,540 亿美元,并预计在 2023 年将达到 1,000 亿美元。但目前只有 20% 的公司在其核心业务流程中或大规模使用 AI 技术。
虽然 GPT-4 作为一种生成式 AI 模型,从特定数据中学习、构建并提供新内容具有其优点,但是,它不是通用 AI。数据收集公司 Oxylabs 的首席执行官 Julius Černiauskas 表示:“基于这种架构,ChatGPT 主要处理文本信息,并在一定程度上处理视觉信息,提供文本输出。但是,不能将包含数千或数百万个数据点的 Excel 上传到 ChatGPT 并期望它分析信息。它不能直接收集数据或与公司数据系统交互,也不是为准确和全面的业务数据分析而设计的。”
虽然 ChatGPT 可以汇总大量文本信息,并提供可能对数据专业人员有帮助的概括性见解或示例,例如就关键绩效指标(KPI)提出建议、解决常见的编码问题以及编写 SQL 代码或数学公式等,但这些聊天机器人并没有考虑到特定公司周围不断变化的环境或它被要求处理的数据,因为它的上下文理解依旧有限。
现今,几乎每个人工智能系统都是建立在机器学习(ML)技术之上的。任何 ML 模型的主要限制在于它完全依赖于训练数据。例如,与微软 Bing 相比,ChatGPT 不处理来自互联网的实时数据,而是在必须不断更新的庞大但有限的数据集上运行。因此,它可能会错过新数据或不能很好地处理它。
尽管 OpenAI 聊天机器人知道的比任何人都多,但在处理任何不符合其预制逻辑的事情时会受到限制。正如 OpenAI 所承认的那样,最新的模型仍然会受到幻觉事实的影响,并且不会从经验中学习。
据 Çerniauskas 总结,“与 ChatGPT 聊天可能非常真实,但虚拟大脑完全接管数据收集和分析的潜力同样有很大的局限性。这可能会改变,但目前的通用和生成人工智能模型在细分领域的用例中精度非常低。组织可以通过使用特定技术来解决问题,但它们非常需要数据。问题在于很少有足够的数据集来实现接近人类的认知和准确性。”