AI 生活助手
解决方案
Database
- Notion
- API 主要看 ENDPOINTS 下面的例子
- AppSmith
- Neo4j
- SingleStore
- 文献和思路
语言模型
-
- pgvector (posgresSQL数据库的一个扩展,用于保存向量数据)
- TensorFlow
HuggingFace
- inference api (Price 滚动到底下)
-
- CodeGeex2 / Starcoder(70GB) 最新代码模型
搜索支持Transformer的models
- HF上选择Models页面,
- Task
- Embedding: Feature Extraction
- 聊天: Question Answering
- 分类: Text classification
- 总结: Text Generation
- Libraries: Transformers
- Languages: Chinese, English, German
- 如果没有ONNX的需要自行编译,因为Transformer本身是从python上来的。(参考onnx)
语言模型
Feature Extraction, Transformer, zh/en/de:
Question Answering
Text generation
- xglm-564M (FB 的同模型4.5B参数需要10GB文件,太大了)
Langchain
Task描述
在自然语言处理中,Text Generation(文本生成)主要指利用机器学习模型自动生成符合语义和语法的文本。它的典型使用场景包括:
文本摘要:读取长文本后生成简洁的摘要,用于快速获取关键信息。
对话系统:根据对话上下文生成回复语句,用于构建智能对话机器人。
翻译:输入一种语言后生成对应的不同语言版本,用于机器翻译。
创作助手:辅助人类进行创作,如帮助写诗、小说、新闻等。
语音识别:生成语音识别的文本转录。
应用接口:根据结构化数据生成文本,如生成天气预报解说等。
Question Answering(问答)系统的主要应用场景是:
虚拟助手:回答用户的提问,提供问题解答服务。
客户服务:解析用户问题,提供产品信息。
教学系统:回答学生的问题。
知识库问答:从知识库中检索答案,进行开放域问答。
它与Text Generation的主要区别在于:
目标不同:Text Generation侧重根据prompt开放生成文本;而Question Answering需要提取或推理得到问题的精确答案。
输入不同:Question Answering需要同时输入问题及背景文本,从中推导答案;Text Generation只用输入prompt。
生成方式不同:Text Generation通过模型自主生成;Question Answering需要从背景中抽取或推理得出。
评估不同:Text Generation更关注生成文本的流畅性和连贯性;而Question Answering需要准确抽取答案。
应用场景不同:Text Generation更偏向创作;而Question Answering更侧重信息检索。
所以在实际使用中,根据是开放生成文本还是针对问题精确回答,来选择使用Text Generation或Question Answering模型。