【ChatGPT 控制所有AI模型: HuggingGPT】
大语言模型LLM在语言理解、生成、交互和推理方面的表现,让人想到:
> 可以将它们作为中间控制器,来管理现有的所有AI模型,通过“调动和组合每个人的力量”,来解决复杂的AI任务。
在这个系统中,语言是通用的接口。
于是,HuggingGPT就诞生了。
它的工程流程分为四步:
* 首先,任务规划。ChatGPT将用户的需求解析为任务列表,并确定任务之间的执行顺序和资源依赖关系。
* 其次,模型选择。ChatGPT根据HuggingFace上托管的各专家模型的描述,为任务分配合适的模型。
* 接着,任务执行。混合端点(包括本地推理和HuggingFace推理)上被选定的专家模型根据任务顺序和依赖关系执行分配的任务,并将执行信息和结果给到ChatGPT。
* 最后,输出结果。由ChatGPT总结各模型的执行过程日志和推理结果,给出最终的输出。
论文地址:https://arxiv.org/abs/2303.17580
报道地址:https://www.qbitai.com/2023/04/43390.html
🎉 订阅频道:ChatGPT 精选: https://t.me/AwesomeChatGPT
👋 交流频道:ChatGPT 精选交流群: https://t.me/AwesomeGPTChat
大语言模型LLM在语言理解、生成、交互和推理方面的表现,让人想到:
> 可以将它们作为中间控制器,来管理现有的所有AI模型,通过“调动和组合每个人的力量”,来解决复杂的AI任务。
在这个系统中,语言是通用的接口。
于是,HuggingGPT就诞生了。
它的工程流程分为四步:
* 首先,任务规划。ChatGPT将用户的需求解析为任务列表,并确定任务之间的执行顺序和资源依赖关系。
* 其次,模型选择。ChatGPT根据HuggingFace上托管的各专家模型的描述,为任务分配合适的模型。
* 接着,任务执行。混合端点(包括本地推理和HuggingFace推理)上被选定的专家模型根据任务顺序和依赖关系执行分配的任务,并将执行信息和结果给到ChatGPT。
* 最后,输出结果。由ChatGPT总结各模型的执行过程日志和推理结果,给出最终的输出。
论文地址:https://arxiv.org/abs/2303.17580
报道地址:https://www.qbitai.com/2023/04/43390.html
🎉 订阅频道:ChatGPT 精选: https://t.me/AwesomeChatGPT
👋 交流频道:ChatGPT 精选交流群: https://t.me/AwesomeGPTChat