基于Alpaca派生的多轮对话数据集

斯坦福大学的alpaca项目为大模型的instruction tuning 提供了单轮的指令数据。然而,chatgpt最显著的特点是其多轮对话能力,允许用户提出跟进问题或纠正模型回答中的错误。为了训练大模型响应多轮指令的能力,chatalpaca是一个面向大模型的多轮对话指令数据集。chatalpaca利用chatgpt在alpaca数据集的基础上模拟用户生成跟进问题,从而将单轮指令扩展为多轮对话。
chatalpaca数据集
目前,chatalpaca数据集包含10,000个对话组,共计95,558条对话语句。每个对话组的第一轮对话是来自alpaca数据集的指令:用户输入指令,chatgpt给出回答。随后,用户根据回答内容展开追问,将对话进行下去。以下是chatalpaca数据集的一个例子:
数据集构建过程
chatalpaca数据集使用alpaca数据作为第一轮对话,通过扩展跟进问题来构建每一轮对话。每一轮对话的构建包括两个阶段:用户问题生成和回复生成。
用户问题生成:
chatalpaca使用chatgpt(gpt-3.5-turbo)生成用户问题,模型的输入包括一个提示语(prompt)和当前对话的历史记录。提示语要求chatgpt模拟用户生成问题,用户问题可以是进一步提问,或者在chatgpt答案错误时给出提示。
例如,根据以下聊天历史记录:
chatgpt生成的用户问题为
chatalpaca还使用关键词过滤了不符合用户身份的问题,例如“as an ai language model, i'm here to assistyou.”、“do you have any questions that i can help youwith?”等。
回复生成:
chatalpaca使用上一步生成的用户问题作为下一轮对话的开始,与对话历史记录拼接,让chatgpt生成新的回复。在上面的例子中,chatgpt根据以下输入生成回复:
然后将这一轮chatgpt的回复添加到对话历史记录中。
重复上述过程,直到对话达到预定的轮数(chatalpaca设定为最多5轮),或用户问题中包含“goodbye”。
目前已经发布了包含10,000个对话组的chatalpaca数据集,接下来将发布包含20,000个对话组的数据和由机器翻译生成的中文对话数据。此外,还将发布使用chatalpaca数据集训练的llama-lora模型和llama微调模型。


线路板级电子增材制造技术已实现全面突破,优势显著
锂离子电池常用术语科普
同样3999元,小米11比小米10多了什么?
最后14天倒计时,台积电加快全面建设华为芯片步伐
日本数码相机巨头节节败退 奥林巴斯宣布停产停工
基于Alpaca派生的多轮对话数据集
NFC技术和二维码兵戎相见,技术的含金量并不决定价值
RISC-V Linux运行时OpenSBI配置和编译
时控开关怎么关闭不用
嵌入式大趴回归!机智云邀您报名参加2023 STM32全国巡回研讨会
最新的越狱工具可实现iOS 12.4越狱
AKB48将推剧场VR观看服务 让观众近距离接触偶像
区块链是什么?它将如何重构未来电网布局
深度解析RocketMQ的消息存储整体架构
斑马技术携多领域物联网解决方案亮相2023 IOTE深圳物联网展
索尼预计2020财年CMOS图像传感器销量额同比下降11.8%
聚焦“硬科技”创新,亿达科创亮相2022西安科博会
OLED拼接屏在梅州的场景化应用中有哪些优点展示?
防火有它,安全万家!
终端匹配电阻是否可以降低电磁辐射的干扰?