Stack Overflow 调查显示,尽管对管理压力和福利感到不满,但开发人员仍积极拥抱 AI 工具,并警告开发者警惕滥用和代价高昂的编码错误

Stack Overflow 调查显示,尽管对管理压力和福利感到不满,但开发人员仍积极拥抱 AI 工具,并警告开发者警惕滥用和代价高昂的编码错误

人工智能 (AI) 工具已迅速成为当代软件开发中不可或缺的一部分;然而,如何最大限度地发挥其潜力对许多管理人员和开发人员来说仍然是一项挑战。Stack Overflow 的一项全面调查凸显了这些障碍,表明开发人员仍在探索如何优化这些技术的使用。大型语言模型 (LLM),例如 ChatGPT 和 Copilot,正在显著改变软件开发格局,不仅影响着开发人员,也影响着像 Stack Overflow 这样传统上提供编码支持的平台。许多开发人员现在通过聊天机器人来寻找答案,而不是仅仅依赖这些专门的论坛。

开发人员拥抱人工智能,却难以定义其角色:Stack Overflow 调查结果

Stack Overflow最近开展了一项调查,调查对象为 49, 000 名专业开发者,揭示了 AI 如何融入编程工作流程。Stack Overflow 曾一度受到开发者的青睐,但如今,随着法学硕士 (LLM) 的出现,它正在重塑编程和调试方法,给编程工作带来新的挑战。调查结果显示,五分之四的开发者正在将 AI 工具融入日常工作中。然而,尽管 AI 工具的使用率激增,但人们对 AI 生成内容的信任度在过去一年中却显著下降,从 40% 降至 29%,这表明人们对这些工具的可靠性日益担忧。

广泛应用与日渐减弱的信任之间的差距预示着一项严峻的挑战。尽管大多数开发人员认识到AI工具在其工作流程中的不可或缺性,但他们仍在努力理解其最佳利用方式以及其运行参数。挫败感通常源于对AI输出准确性和可靠性的担忧。开发人员指出,虽然一些编码错误很容易识别,但这些AI工具产生的错误往往更加复杂,纠正起来也更加耗时。

这种情况给初级开发者带来了更大的困境,他们可能会对人工智能的输出抱有过度的信任。这种过度依赖可能会带来挑战,尤其是在结果被证明是错误的且难以修改的情况下。调查受访者表示,许多人在使用人工智能工具遇到困难后会向 Stack Overflow 社区寻求帮助。这凸显了一个循环:开发者最初向法学硕士 (LLM) 寻求帮助,但后来遇到问题时又需要同行的支持。

尽管这些挑战持续存在,但人工智能模型固有的根本局限性意味着一些不确定性仍将持续存在。法学硕士(LLM)的本质——从已学习的模式中汲取经验——可能会导致不可预测的结果。尽管如此,开发者们仍在继续使用这些人工智能技术,这受到管理层倡导更广泛应用以及它们固有实用性的影响。明智地使用这些工具至关重要,了解它们的局限性以避免代价高昂的编码失误也同样重要。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注