在人工智能的发展历程中,模型如ChatGPT和GPT-4已经显示出其在处理复杂任务方面的强大能力。特别是,Sora在多模态学习方面的突破,让生成式AI的应用前景更加广阔。然而,AI领域的研究并未止步,斯坦福大学的吴恩达教授最近指出,AI智能体工作流将成为推动该领域巨大进步的关键因素。
当前,大型语言模型(LLM)主要以零样本方式工作,直接根据给定的提示生成输出。这种方式虽然已经能够产生令人印象深刻的结果,但存在效率和准确性的局限。吴恩达教授提出,通过智能体工作流,即允许AI在生成文档的过程中进行多次迭代和改进,可以显著提高输出的质量。这种工作流包括规划大纲、进行网络搜索收集信息、撰写和修订初稿等步骤,模拟人类写作过程中的迭代改进机制。
吴恩达教授团队在研究中发现,通过引入智能体工作流,即使是早期的GPT-3.5模型,其在编码任务的正确率也能显著提高,从48.1%提升至95.1%。这一发现强调了迭代智能体工作流相比于单次生成模式的巨大优势。
为了帮助理解和实施这种复杂的工作流程,吴教授还分享了一个构建智能体的设计模式框架。这包括四个主要方面:反思(自我评估改进)、工具使用(如网络搜索和代码执行)、规划(执行多步骤计划)和多智能体协作(AI之间的任务分配和讨论)。这些模式不仅有助于提高单个智能体的效能,还能促进多个智能体之间的协同工作,进一步拓展AI的应用范围。