首页>资讯>正文
天天热文:如何用低代码搭建训练一个专业知识库问答GPT机器人
2023-03-31 09:39:03    来源:腾讯云
来源:依然基于Stable-Diffusion模型生成

距离上篇文章《低代码xChatGPT,五步搭建AI聊天机器人》已经过去3个多月,收到了很多小伙伴的关注和反馈,也帮助很多朋友快速低成本搭建了ChatGPT聊天应用,未曾想这一段时间GPT热度只增不减,加上最近国内外各种LLM、文生图多模态模型密集发布,开发者们也有了更高的要求。比如如何训练一个自己的GPT应用,如何结合GPT和所在的专业领域知识来搭建AI应用,像心理咨询助手、个人知识库助手等,看目前网上这方面资料还不多,今天我们就来抛个砖试试。

目前的预训练方式主要如下几种:


【资料图】

基于OpenAI的官方LLM模型,进行fine-tune(费用高,耗时长)基于开源的Alpaca.cpp本地模型(目前可在本地消费级显卡跑起来,对自己硬件有信心也可以试试)通过向量数据库上下文关联(轻量级,费用可控,速度快,包括昨天OPENAI官方昨天刚放出来的示例插件chatgpt-retrieval-plugin,也采用的这种方式)

低代码实现的AI问答机器人效果如下:

这次还是用腾讯云微搭低代码作为应用搭建平台,来介绍如何快速搭建一个垂直领域的知识库GPT问答机器人,今天的教程尽量避开了各种黑科技的封装库(没有Langchain/Supabase/PineconeSDK全家桶),尝试从最基本的实现原理来展开介绍,尽量让大家知其所以然。新手开发者也可以试试,与其看各种GPT热闹,不如Make your hands dirty

一、准备工作

在开始搭建垂直知识库的问答机器人前,你需要做以下准备:

微信小程序账号:如果您还没有微信小程序账号,可以在微信公众平台注册(如果没有小程序,也可以发布为移动端H5应用)开通腾讯云微搭低代码:微搭低代码是腾讯云官方推出的一款低代码开发工具,可以直接访问腾讯云微搭官网免费开通注册OpenAI账号:OpenAI账号注册也是免费的,不过OpenAI有地域限制,网上方法很多在此不赘述。注册成功后,可以登录OpenAI的个人中心来获取API KEY一个支持向量匹配的数据库(本文以开源的PostgreSQL为例,你也可以使用Redis,或者NPM的HNSWlib包)

关于向量数据库,目前可选择的方式有好几种,可以使用PostgreSQL安装vector向量扩展,也可以使用Redis的Vector Similarity Search,还可以直接云函数使用HNSWLib库,甚至自行diy一个简单的基于文件系统的余弦相似度向量数据库,文末的 github/lowcode.ai也有简单示例代码,仅做参考交流不建议在生产环境使用。

本教程适用人群和应用类型:

适用人群:有前后端基础的开发者(有一定技术背景的非开发者也可以体验)应用类型:小程序 或 H5应用(基于微搭一码多端特性,可以发布为Web应用,点击原文链接可体验作者基于微搭搭建的文档GPT机器人)

二、搭建聊天机器人界面

如何使用低代码进行界面搭建的详细过程,在之前的文章中《低代码xChatGPT,五步搭建AI聊天机器人》已经有过详细的教程介绍,这里就不再继续展开。

另外,大家也可以使用微搭官方的聊天模板,这样的话界面这一步直接跳过,开箱即用,附微搭低代码GPT聊天应用模板地址

完成界面配置之后,大家重点关注下图中页面设计模块的”发送“按钮的事件配置即可,在后续会提到。

三、配置后端逻辑

与之前机器人的实现直接调用远程API不同,这次由于需要针对专业的领域知识进行预处理以及向量化,重点会涉及3个部分:

读取待训练的文档数据并进行向量化,之后存入向量数据库通过query的向量化结果与数据库向量进行相似度匹配,并返回关联文本结果结合返回的关联文本和query来构建上下文生成prompt

可以通过下图了解向量搜索实现GPT Context的大致原理:

由上图可见,主要是两个处理流程,一个文档数据的向量化预处理,一个是查询时的向量匹配和Context构造处理,这两个处理我们都可以使用腾讯云低代码的云函数来实现(当然第一步的预处理也可以在本地电脑完成)

1. 将知识库文档数据向量化

首先,将所需要的预处理的知识库内容放在某个目录下,遍历知识库目录下的所有文档文件(本文文件格式以markdown为例),将文本分块后结构化存储在本地json文件。

如果数据量小,分块后的结构化数据也可以直接放在内存中,本地化json主要便于在大量文本预处理时,遇到网络等异常时,能够在断点处重启预处理

关键代码如下:

本教程涉及的完整代码已放到https://github.com/enimo/lowcode.ai中,可按需下载试验,也可直接上传到微搭低代码的云函数中运行)

function splitDocuments(files, chunkSize) {let docSize = chunkSize || 1000;let textString = "";let index = 0;let documents = [];for(let i = 0, len = files.length; i < len; i++) {if(files[i] && files[i].content) {textString = files[i].content;}else {textString = fs.readFileSync(files[i], "utf8");}textString = textString.replace(/\n|\r/g, " ").replace(/<.*?>/g,"")    let start = 0;    while (start < textString.length) {      const end = start + docSize;      const chunk = textString.slice(start, end);      documents.push({ docIndex: index++, fileIndex: files[i].fileIndex, filename: files[i].filename || files[i], content: chunk });      start = end;}  }  fs.writeFileSync("./docstore.json", JSON.stringify(documents));  return documents;}

上述代码用途主要是在得到遍历后的文件路径数组files后,对文件进行切块处理,分块大小可按需调整,一般建议在1000~2000之间(切换主要为兼容GPT API的单次token限制及成本控制)

其次,对分块的文本进行向量化并存入向量数据库,关键代码如下:

async function initVector(sql, docs){    const maxElements = docs.length || 500; // 最多处理500个    for (let j = 0; j < maxElements; j++ ) {        const input = docs[j].content;        const filename = docs[j].filename;        const fileIndex = docs[j].fileIndex        const docIndex = docs[j].docIndex        // 通过根据训练日志返回断点docIndex,调整 docIndex 的值,确保从断点继续向量化        if(docIndex >= 0 &&  docIndex < 1000 ){            log("start embedding fileIndex: ", fileIndex, "docIndex: ", docIndex, "filename:", filename);            const embedding = await embedding(input);            const embeddingArr = "[" + embedding + "]";            const metadata = { filename, "doclength": maxElements, index: j };            const insertRet = await sql`              INSERT INTO documents ( content, appcode, metadata, embedding )              VALUES              ( ${input}, "wedadoc",  ${metadata}, ${embeddingArr} )`            await delay(1000); // 如果embedding API并发请求限制,可设置随机数sleep        }        else {          continue;        }    }    return true;}

上述文本向量化的存储过程中,涉及到调用OpenAI的embedding模型进行向量转化,这里使用text-embedding-ada-002模型(这个文本向量化过程也可以不使用OpenAI的官方模型,有部分开源模型可代替)

async function embedding (text) {    const raw_text = text.replace(/\n|\r/g, " ");    const embeddingResponse = await fetch(        OPENAI_URL + "/v1/embeddings",        {          method: "POST",          headers: {            "Authorization": `Bearer ${OPENAI_API_KEY}`,            "Content-Type": "application/json"          },          body: JSON.stringify({            input: raw_text,            model: "text-embedding-ada-002"          })        }    );    const embeddingData = await embeddingResponse.json();        const [{ embedding }] = embeddingData.data;    log({embedding});    return embedding;}

以上,一个文档知识库的向量化预处理就基本完成了,接下来看看怎么实现基于query的搜索逻辑。

2. 实现query的向量化搜索

我们在上一步中已经完成了文本数据的向量化存储。接下来,可以基于用户提交的query来进行相似度搜索,关键代码如下:

async function searchKnn(question, k, sql){    const embedding = await embedding(question);    const embeddingArr = "[" + embedding + "]";    const result = await sql`SELECT * FROM match_documents(${embeddingArr},"wedadoc", 0.1, ${k})`    return result;}

上述代码将query同样转化为向量后,再去上一步向量化后的数据库中进行相似搜索,得到最终与query最匹配的上下文,其中有一个预定义的SQL函数match_documents,主要用作文本向量的匹配搜索,具体会在后面介绍,在 github/lowcode.ai中也有详细的定义和说明。

最后,我们工具拿到的搜索返回值,来构造GPT 3.5接口的prompt上下文,关键代码如下:

async function getChatGPT (query, documents){    let contextText = "";    if (documents) {        for (let i = 0; i < documents.length; i++) {            const document = documents[i];            const content = document.content;              const url = encodeURI(document.metadata["filename"]);            contextText += `${content.trim()}\n SOURCE: ${url}\n---\n`;        }    }    const systemContent = `You are a helpful assistant. When given CONTEXT you answer questions using only that information,and you always format your output in markdown. `;    const userMessage = `CONTEXT:      ${contextText}      USER QUESTION:       ${query}`;    const messages = [        {          role: "system",          content: systemContent        },        {          role: "user",          content: userMessage        }    ];      const chatResponse = await fetch(        OPENAI_URL + "/v1/chat/completions",        {            method: "POST",            headers: {                "Authorization": `Bearer ${OPENAI_API_KEY}`,                "Content-Type": "application/json"            },            body: JSON.stringify({                "model": "gpt-3.5-turbo",                 "messages": messages,                "temperature": 0.3,                 "max_tokens": 2000,            })        }    );    return await chatResponse.json();}

上述代码中核心是上下文的构造,由于GPT3.5之后的接口,支持指定role,可以将相关系统角色的prompt放在了systemContent中,至于/v1/chat/completions接口入参说明由于之前的文章中有过介绍,这里也不赘述,有任何疑问大家也可以到「漫话开发者」公众号留言询问。

以上,query的搜索部分完成了,到此所有后端接口的核心逻辑也都完成了,可以看到几个关键流程的实现是不是很简单呢。

3. 将所涉及代码部署到微搭低代码的云函数中

完成后端代码开发后,接下来就是把相应的运行代码部署到微搭低代码的云函数中,综上可知,主要是两部分的后端代码,一部分文档的向量化并入库(这部分本地Node环境运行亦可),另一部分就是实现搜索词匹配构建prompt后调用GPT接口查询了。

微搭低代码的云函数入口,可以在数据源->APIs->云函数中找到,如下图所示:

如果第一次使用云函数,需要点击图中链接跳转到云开发云函数中进行云函数的新建,如下图所示:

新建完成后,点击进入云函数详情页,选择”函数代码“Tab,然后在下面的提交方法下拉框中选择”本地上传ZIP包“即可上传前面完成的后端逻辑代码,也可以直接下载 github/lowcode.ai打包后上传。上传成功后,第一次保存别忘了点击”保存并安装依赖“来安装对应的npm包。

在完成云函数新建和代码上传后,回到上一步的微搭数据源APIs界面中刷新页面,即可看到刚刚新建好的云函数openai,选中该云函数,并按要求正确填写对应的出入参结构,测试方法效果并保存后,即可在第一章的前端界面”发送“按钮中绑定调用数据源事件进行调用了。

4. 完成开发联调,发布应用

完成上述后端逻辑以及云函数配置后,可以切到编辑器的页面设计模块,回到第一章的界面设计来进行事件的配置,完成后点击编辑器右上角的“发布”按钮,可以选择发布到你已绑定的小程序,也可以直接发布Web端H5/PC应用。

至此,一个垂直知识库的AI问答机器人应用基本就搭建完成了。

四、附录说明

1 数据库PostgreSQL的初始化

本文中采用的PostgreSQL作为向量数据库,其中涉及到的建表结构定义参考如下:

create table documents (  id bigserial primary key,  content text, -- corresponds to Document.pageContent  metadata json, -- corresponds to Document.metadata  embedding vector(1536) -- 1536 works for OpenAI embeddings, change if needed);

涉及的SQL函数match_documents的定义参考如下,其中query_embedding表示query关键词的向量值,similarity_threshold表示相似度,一般情况下要求不低于0.1,数值越低相似度也越低,match_count表示匹配后的返回条数,一般情况下2条左右,取决于前文的分块chunk定义大小。

create or replace function match_documents (  query_embedding vector(1536),  similarity_threshold float,  match_count int)returns table (  id bigint,  content text,  metadata json,  similarity float)language plpgsqlas $$begin  return query  select    documents.id,    documents.content,    documents.metadata,    1 - (documents.embedding <=> query_embedding) as similarity  from documents  where 1 - (documents.embedding <=> query_embedding) > similarity_threshold    order by documents.embedding <=> query_embedding  limit match_count;end;$$;

所有上述的内容数据库SQL schema以及部分训练备用文本数据都已经放到github,大家可以关注定期更新,按需采用: github/lowcode.ai

2 体验试用

可以通过Web端体验作者搭建的Web版文档机器人,同时得益于微搭低代码的一码多端,同步发布了一个小程序版本,大家可以扫码体验。

低代码文档AI小程序

由于目前自建向量库的性能局限以及有限的预处理文档数据,响应可能比较慢,准确性偶尔也会差强人意,还请各位看官谅解,抽时间再持续优化了,本文还是以技术方案的探讨交流为主。

3 最后

通过本教程的介绍,你已经基本熟悉了如何使用微搭低代码快速搭建垂直知识库的AI问答机器人了,有任何疑问可以关注「漫话开发者」公众号留言。

用低代码创建一个GPT的聊天应用很简单,实现一个垂直领域的AI问答应用也不难。未来不管被AI替代也好,新的开发者时代来了,先动手试试,make your hands dirty first, enjoy~

关键词:

天天热文:如何用低代码搭建训练一个专业知识库问答GPT机器人

距离上篇文章《低代码xChatGPT,五步搭建AI聊天机器人》已经过去3个多月,收到了很多小伙伴的关注和反馈,也帮助很多朋友快速低成本搭建了Chat2023-03-31

二十岁的女生送什么礼物|天天即时

二十岁的女生送的礼物,我觉得现在的年龄,女孩都喜欢可爱、漂亮的东西,如果她平时比较注重打扮,我建议你送一些精致的小饰品,2023-03-31

春季防静电,有这些小妙招(民生服务港) 世界聚焦

春季防静电,有这些小妙招(民生服务港)2023-03-31

小猪唏哩呼噜内容概括(小猪唏哩呼噜内容概要)

1、《小猪唏哩呼噜》全书围绕主人公小猪唏哩呼噜,讲述了发生在它身上的一系列趣事。2、唏哩呼噜曾经被大狼叼走,拆点被分成块,喂给小狼宝宝,但2023-03-31

天天日报丨十级工伤最低理赔多少钱?包括有哪些费用?

工伤医疗费:治疗工伤所需费用符合工伤保险诊疗项目目录、工伤保险药品目录、工伤保险住院服务标准的,从工伤保险基金支付。工伤康复费:工伤2023-03-31

烈火战神必备技能_烈火战神技能搭配_世界今亮点

1、由于烈火战神超高的魔攻种族和魔攻强化技能,所以最适合魔攻方向培养,物攻技能全部排除掉。2、【魔焰瞬击】火系魔攻,2023-03-31

雨水短暂“蓄力”后将再度“发威”,4月1日开始全省再迎较强降雨

华声在线3月30日讯(文 视频全媒体记者李致远)30日早晨,一缕阳光洒进了城市之中。没错,阔别许久的太阳,终于回来上2023-03-30

好心提醒:厨房油烟是公认的1级致癌物,半小时等于吸入1包烟|精彩看点

厨房对吃货而言是销魂的天堂毕竟世上的快乐千千万也抵不住红烧肉的一半但实际上这个地方却可能埋伏着一堆到处蹦跶的致命“杀手”油烟据上海中2023-03-30

海信家电(00921.HK)2022年净利润增长47.54%至14.35亿元 每10股派5.31元_热点评

格隆汇3月30日丨海信家电(00921 HK)发布公告,2022年度,公司实现营业收入741 15亿元,同比增长9 702023-03-30

售价33.50万元起 2023款坦克500正式上市 热点聚焦

2023款坦克500正式上市。该车分为商务版、运动版及定制版3个版本,售价33 50万元起。-更多汽车资讯来自网通社。2023-03-30

别人加我微信收不到好友请求啥时可好_别人加我微信收不到好友请求

1、当天添加好友请求过多。2、解决方法:24小时后系统重新拉取数据后则可以恢复正常使用。3、2、微信个人资料异常。4、解2023-03-30

世界时讯:莫言:管好自己,莫渡他人

也就是说,每个人都有自己对世界和事情的看法,这世上没有绝对的是非曲直,也没有所谓的非黑即白,不随意评价他人,是一个人最重要的修养。这2023-03-30

商丘市梁园区平原街道召开“社区书记谈创建”----- “五星”支部工作专题汇报会

大象新闻记者倪政伟通讯员 李晓蕾3月29日下午,平原街道召开“社区书记谈创建”---“五星”支部工作专题汇报会。街道2023-03-30

49岁老板总是发错工资!医生:这些症状只要有1种,赶紧就医|环球快看点

49岁的企业老板突然连账目都算不清楚53岁的银行中层算不对100以内的连续减法……他们两位都是早发型阿尔茨海默病患者但后续应对中,态度和方法2023-03-30

视点!定了!北京这4所高校将疏解到雄安

河北新闻联播、河北长城网近日报道,中国地质大学(北京)、北京交通大学、北京科技大学、北京林业大学这四所北京“双一流”高校将疏解到河北2023-03-30

【全球独家】国金证券:给予长春高新买入评级

国金证券股份有限公司袁维近期对长春高新进行研究并发布了研究报告《生长激素持续放量,带状疱疹疫苗有望带动新增长》,本报告对长春高新给出2023-03-30

2023年聊城市社保缴纳基数标准是多少_天天播报

2023年聊城市社保缴纳基数标准是多少,下文就随社保君来简单的了解一下吧。聊城市社保缴费介绍:聊城市社保缴费的计算公式是社保月缴费基数乘2023-03-30

全球简讯:国泰君安2022年实现净利润115.07亿元

上证报中国证券网讯3月29日晚,国泰君安披露2022年年报。报告期内,公司实现营业收入354 71亿元,同比下降17 16%;实现归母净利润115 07亿元,2023-03-30

我嫌弃你的偏向会让我觉得有点丧什么歌

最近一段时间小编在涮小红书和抖音的时候经常会听到我嫌弃你的偏向会让我觉得有点丧这句歌词,那么我嫌弃你的偏向会让我觉得有点丧什么歌?下2023-03-30

当前报道:打爆凯尔特人的防守,他才是奇才真正应该树立的后场核心?

本场比赛中,奇才的先发后场大将蒙特-莫里斯(MonteMorris)的表现可谓是相当抢眼。莫里斯算得上是一名相当稳定的后场球员,他的综合能力其实2023-03-30

环球新动态:主持人做达人不存在“降维打击”,坚持做好擅长的事 | 对话芒果MCN

2018年,在电商直播还没这么火热、短视频关注度还没有网络长视频高的情况下,湖南广电已经感受到了来自新媒体的冲击,并开始在内部组织转型。22023-03-30

环球微资讯!中国女篮新消息!张隆前往美国,李梦解约,张茹签大合同!

中国女篮新消息!张隆前往美国,李梦解约,张茹签大合同!,张茹,姚明,美国,唐朝,奥运会,中国女篮,中国男篮,wcba,内蒙古女篮,张隆(高昌),李梦(女演员)2023-03-30

天天时讯:文明实践在行动|农牧民草原书屋“充电”忙

阳春三月,走进达茂旗乌克忽洞镇二里半村草原书屋,前来看书的村民正在书架前挑选书籍,分享学习心得。眼下正值春耕备耕时节,草原书屋里备全2023-03-30

匈牙利对瑞典仍存“不满”暂停批准瑞典加入北约的程序

新华社电匈牙利政府发言人29日说,匈牙利对瑞典仍然存在“不满”,因而暂时搁置批准瑞典加入北大西洋公约组织申请的程序。匈牙利政府发言人佐2023-03-30

小苏打洗衣液的功效_小苏打洗衣液|环球视讯

1、小苏打是可以跟洗衣液一起用的,洗涤衣服上的一些顽固污渍是可以用小苏打辅助去除。2、小苏打的作用:小苏打可以2分钟去除2023-03-30

滚动
资讯