ChatGPT无法完成的5项编码任务

智能真的很好说 2024-03-07 06:32:51

这是 ChatGPT 不能做的事情的一个很好的列表。但这并不是详尽无遗的。ChatGPT 可以从头开始生成相当不错的代码,但它不能做任何会占用你工作的事情。

图片由作者提供

我喜欢将 ChatGPT 视为 StackOverflow 的更智能版本。非常有帮助,但不会很快取代专业人士。作为一名前数据科学家,当 ChatGPT 问世时,我花了大量时间玩弄它。它的编码能力给我留下了深刻的印象。它可以从头开始生成非常有用的代码;它可以为我自己的代码提供建议。如果我要求它帮助我处理错误消息,它非常擅长调试。

但不可避免的是,我花在使用它上的时间越多,我就越会遇到它的局限性。对于任何担心 ChatGPT 会抢走他们工作的开发人员,这里列出了 ChatGPT 不能做的事情。

1. 贵公司专业使用的任何东西

第一个限制不在于它的能力,而在于合法性。任何纯粹由 ChatGPT 生成并由您复制粘贴到公司产品中的代码都可能使您的雇主面临丑陋的诉讼。

这是因为 ChatGPT 可以自由地从它训练的数据中提取代码片段,这些代码片段来自互联网上。“我让 chat gpt 为我生成了一些代码,我立即认出它从哪个 GitHub 存储库中获得了很大一部分代码,”Reddit 用户 ChunkyHabaneroSalsa 解释道。

归根结底,没有人知道 ChatGPT 的代码来自哪里,也不知道它使用的许可证是什么。即使它完全从头开始生成,ChatGPT 创建的任何内容本身都不受版权保护。正如彭博法律作家肖恩·赫尔姆斯(Shawn Helms)和杰森·克里泽(Jason Krieser)所说,“'衍生作品'是'基于一个或多个先前存在的作品'的作品。ChatGPT 在预先存在的作品上进行训练,并根据该训练生成输出。

如果您使用 ChatGPT 生成代码,您可能会发现自己与雇主有麻烦。

2. 任何需要批判性思维的事情

这里有一个有趣的测试:让 ChatGPT 创建将在 Python 中运行统计分析的代码。

这是正确的统计分析吗?可能不是。ChatGPT 不知道数据是否符合测试结果有效所需的假设。ChatGPT 也不知道利益相关者想看到什么。

例如,我可能会要求 ChatGPT 帮助我弄清楚不同年龄组的满意度评分是否存在统计学上的显着差异。ChatGPT 建议进行独立样本 T 检验,发现年龄组之间没有统计学上的显着差异。但是,由于多种原因,t 检验并不是最佳选择,例如可能存在多个年龄组,或者数据不是正态分布的。

图像来源:decipherzone.com

一个全栈数据科学家会知道要检查什么假设,要运行什么样的测试,并且可以给ChatGPT更具体的指令。但 ChatGPT 本身会很乐意为错误的统计分析生成正确的代码,从而使结果不可靠且无法使用。

对于任何需要更多批判性思维和解决问题的问题,ChatGPT 都不是最好的选择。

3. 了解利益相关者的优先事项

任何数据科学家都会告诉你,工作的一部分是理解和解释利益相关者对项目的优先事项。ChatGPT 或任何与此相关的人工智能都无法完全掌握或管理这些。

首先,利益相关者的优先事项通常涉及复杂的决策,不仅要考虑数据,还要考虑人为因素、业务目标和市场趋势。

例如,在应用重新设计中,您可能会发现营销团队希望优先考虑用户参与功能,销售团队正在推动支持交叉销售的功能,而客户支持团队需要更好的应用内支持功能来帮助用户。

ChatGPT 可以提供信息并生成报告,但它无法做出符合不同利益相关者不同(有时是相互竞争)利益的细致入微的决策。

此外,利益相关者管理通常需要高度的情商——能够同情利益相关者,在人性层面上理解他们的担忧,并对他们的情绪做出反应。ChatGPT缺乏情商,无法管理利益相关者关系的情感方面。

您可能不认为这是一项编码任务,但目前正在为新功能推出编写代码的数据科学家知道其中有多少与利益相关者的优先事项有关。

4. 新问题

ChatGPT 想不出任何真正新颖的东西。它只能重新混合和重新构建从训练数据中学到的东西。

图像来源:theinsaneapp.com

想知道如何更改 R 图上的图例大小吗?没问题——ChatGPT 可以从 StackOverflow 的 1,000 多个答案中提取出提出相同问题的问题。但是(使用我要求 ChatGPT 生成的一个例子),它以前不太可能遇到过的事情呢,例如组织一次社区聚餐,每个人的菜肴都必须包含与姓氏相同的字母开头的成分,并且您要确保菜肴种类繁多。

当我测试这个提示时,它给了我一些 Python 代码,这些代码决定菜名必须与姓氏匹配,甚至没有正确捕获成分要求。它还希望我提出 26 种菜类,每个字母一个。这不是一个聪明的答案,可能是因为这是一个全新的问题。

5.伦理决策

最后但并非最不重要的一点是,ChatGPT 无法进行道德编码。它不具备做出价值判断的能力,也没有像人类那样理解一段代码的道德含义。

道德编码涉及考虑代码如何影响不同的人群,确保它不会歧视或造成伤害,并做出符合道德标准和社会规范的决策。

例如,如果你让 ChatGPT 为贷款审批系统编写代码,它可能会根据历史数据生成一个模型。然而,它无法理解由于数据中的偏见,该模型可能拒绝向边缘化社区提供贷款的社会影响。人类开发人员需要认识到公平和公正的必要性,寻找并纠正数据中的偏见,并确保代码符合道德实践。

值得指出的是,人们在这方面也不完美——有人编码了亚马逊有偏见的招聘工具,有人编码了谷歌照片分类,将黑人识别为大猩猩。但人类更擅长。ChatGPT 缺乏道德编码所需的同理心、良心和道德推理。

人类可以理解更广泛的背景,认识到人类行为的微妙之处,并就对与错进行讨论。我们参与道德辩论,权衡特定方法的利弊,并对我们的决定负责。当我们犯错误时,我们可以从中吸取教训,有助于我们的道德成长和理解。

最后的思考

我喜欢 Redditor Empty_Experience_10 对它的看法:“如果你所做的只是编程,那么你就不是软件工程师,是的,你的工作将被取代。如果你认为软件工程师的薪水很高,因为他们会写代码,这意味着你对成为一名软件工程师有一个根本的误解。

我发现 ChatGPT 在调试、一些代码审查方面非常出色,而且比搜索 StackOverflow 答案快一点。但是,很多“编码”不仅仅是将Python打入键盘。它知道你的业务目标是什么。它了解你必须对算法决策有多小心。它与利益相关者建立关系,真正了解他们想要什么以及为什么,并寻找一种方法来实现这一目标。

它是讲故事,它知道何时选择饼图或条形图,它理解数据试图告诉你的叙述。它是关于能够用利益相关者可以理解和做出决策的简单术语传达复杂的想法。

ChatGPT 无法做到这一点。只要你能做到,你的工作就是安全的。

内特·罗西迪(Nate Rosidi)是一名数据科学家,负责产品战略。他还是教授分析学的兼职教授,并且是 StrataScratch 的创始人,StrataScratch 是一个帮助数据科学家准备面试的平台,其中包含来自顶级公司的真实面试问题。在Twitter上与他联系:StrataScratch或LinkedIn。

原文标题:5 Coding Tasks ChatGPT Can’t Do

原文链接:https://www.kdnuggets.com/5-coding-tasks-chatgpt-cant-do

作者:Nate Rosidi

编译:LCR

0 阅读:0

智能真的很好说

简介:感谢大家的关注