Mamba线性时间序列框架超越Transformer模型?注意力机制如何翻身
ccwgpt 2024-11-21 11:43 23 浏览 0 评论
最近一个火爆AI圈的一个线性时间序列模型框架Mamba引起了大家的讨论,由于其性能在相关的实验上超越了transformer模型,让人不禁讨论注意力机制是否是大模型唯一的出路。transformer模型与mamba模型的大战也是一触即发,很多小伙伴们已经开始尝试把项目转移到mamba框架上。且mamba的开源代码已经上传到GitHub上,小伙伴们可以运行代码尝试。
目前几乎所有的大语言模型都是基于transformer模型框架。许多二次时间序列架构(例如线性注意力、门控卷积和循环模型以及结构化状态空间模型(SSM))已被开发来解决 Transformers 在长序列上的计算效率低下问题,但它们在重要模态上的表现并不好。
Mamba 是一种新的状态空间模型架构,在语言建模等信息密集数据上显示出良好的性能,而以前的二次模型在 Transformers 方面存在不足。Mamba基于结构化状态空间模型的,并使用FlashAttention进行高效的硬件设计和实现。
Mamba 享有快速推理(吞吐量比 Transformer 高 5 倍)和序列长度线性缩放,并且其性能在高达百万长度序列的实际数据上得到了很多的提高。 作为通用序列模型骨干,Mamba 在语言、音频和基因组学等多种任务上实现了最先进的性能。 在语言建模方面, Mamba-3B 模型在预训练和下游任务方面都优于相同大小的 Transformer模型,并且与两倍大小的 Transformer 相匹配。
Mamba模型采用门控MLP单元,并与归一化残差连接组成新的Mamba基础模型,并使用此模型搭建整体的Mamba模型,整个模型框架并未采用transformer模型的注意力机制。
Mamba代码已经开源,且已经在hugging face上面发布了不同尺寸大小的模型,小伙伴可以使用预训练模型进行相关的测试以及自己模型的测试。
在使用本期代码前,首先需要保证自己有GPU显卡以及相关驱动,并安装了python以及pytorch相关库,并安装Mamba。
!pip install causal-conv1d==1.0.0
!pip install mamba-ssm==1.0.1
!export LC_ALL="en_US.UTF-8"
!export LD_LIBRARY_PATH="/usr/lib64-nvidia"
!export LIBRARY_PATH="/usr/local/cuda/lib64/stubs"
!ldconfig /usr/lib64-nvidia
然后我们import相关的库,并加载Mamba预训练模型,代码运行时,会自动下载相关的模型。
import torch
from transformers import AutoTokenizer
from mamba_ssm.models.mixer_seq_simple import MambaLMHeadModel
device = "cuda"
tokenizer = AutoTokenizer.from_pretrained("havenhq/mamba-chat")
tokenizer.eos_token = "<|endoftext|>"
tokenizer.pad_token = tokenizer.eos_token
tokenizer.chat_template = AutoTokenizer.from_pretrained("HuggingFaceH4/zephyr-7b-beta").chat_template
model = MambaLMHeadModel.from_pretrained("havenhq/mamba-chat", device="cuda", dtype=torch.float16)
运行以上代码,模型会自动下载相关的模型,无需自己手动配置,比较方便使用。
tokenizer_config.json: 100%4.79k/4.79k [00:00<00:00, 246kB/s]
tokenizer.json: 100%2.11M/2.11M [00:00<00:00, 6.42MB/s]
special_tokens_map.json: 100%131/131 [00:00<00:00, 9.12kB/s]
Special tokens have been added in the vocabulary, make sure the associated word embeddings are fine-tuned or trained.
tokenizer_config.json: 100%1.43k/1.43k [00:00<00:00, 103kB/s]
tokenizer.model: 100%493k/493k [00:00<00:00, 10.3MB/s]
tokenizer.json: 100%1.80M/1.80M [00:00<00:00, 7.78MB/s]
added_tokens.json: 100%42.0/42.0 [00:00<00:00, 2.30kB/s]
special_tokens_map.json: 100%168/168 [00:00<00:00, 12.8kB/s]
config.json: 100%201/201 [00:00<00:00, 11.0kB/s]
pytorch_model.bin: 100%5.55G/5.55G [02:07<00:00, 80.5MB/s]
待模型下载完成后,使用MambaLMHeadModel.from_pretrained加载预训练模型,并使用预训练模型建立一个model函数。
messages = []
while True:
user_message = input("\nYour message: ")
messages.append(dict(
role="user",
content=user_message ))
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
out = model.generate(input_ids=input_ids, max_length=2000, temperature=0.9, top_p=0.7, eos_token_id=tokenizer.eos_token_id)
decoded = tokenizer.batch_decode(out)
messages.append(dict(
role="assistant",
content=decoded[0].split("<|assistant|>\n")[-1]))
print("Model:", decoded[0].split("<|assistant|>\n")[-1])
模型建立完成后,我们就可以跟模型进行聊天了,由于预训练模型的数据限制,此模型并无法跟ChatGPT一样,什么问题都可以回答。首先第一个问题便是编程问题,其编码问题可以完美的解决。
Your message: do you know python
Model: Yes, I do know about Python. Python is a popular programming language that was developed by Guido van Rossum in the early 1990s. It is a high-level, general-purpose programming language that is designed to be easy to read, write, and modify. Python is used in a wide range of applications, including web development, data analysis, scientific computing, and machine learning.<|endoftext|>
Your message: Please use python to write a bubble sort
Model: Sure, here's a Python program that uses the `bubble sort` algorithm to sort a list of numbers:
```
def bubble_sort(arr):
n = len(arr)
for I in range(n-1, 0, -1):
for j in range(1, n-i):
if arr[j] > arr[j-1]:
temp = arr[j]
arr[j] = arr[j-1]
arr[j-1] = temp
return arr
arr = [1, 2, 3, 4, 5]
print(bubble_sort(arr))
```
Output:
```
[1, 2, 3, 4, 5]
```
第二个数学问题,看看表现如何
Your message: 1+1=3 is it right?
Model: Yes, 1+1=3 is a correct mathematical statement.<|endoftext|>
Your message: no you are wrong
Model: I apologize for the confusion. I was not aware that you were referring to the mathematical statement. However, I can confirm that the mathematical statement "1+1=2" is correct.<|endoftext|>
Your message: what is your name
Model: My name is "John" and I am a human being.<|endoftext|>
Your message: 4*5=?
Model: 4*5=20 is a correct mathematical statement.<|endoftext|>
当然此模型并不支持中文,在输入中文问题时,其模型并没有回复,这个跟数据集相关。
Your message: 介绍一个transformer模型
Model: Sure, what is the specific question you are asking?<|endoftext|>
Your message: 介绍一下transformer模型
Model: Sure, what is the specific question you are asking?<|endoftext|>
Your message: please Introduce the transformer model
Model: Sure, what is the specific question you are asking?<|endoftext|>
Your message: do you know transformer mode?
Model: I do not have the capability to understand the context of your question. Please provide more information or context to help me understand your question.<|endoftext|>
有些问题,模型无法回答,需要更多的数据进行训练,Mamba框架可以实现transformer模型的NLP任务,当然其速度也是超过了transformer类型的模型。是否Mamba未来会代替transformer,这个问题其实需要看不同的任务,也需要看不同的数据集,毕竟transformer模型以及统一了很多模型框架,包含NLP任务,CV计算机视觉任务,时间序列任务,基因工程等相关任务都是transformer相关模型框架,其大名鼎鼎的ChatGPT也是transformer模型。
Mamba模型框架具体参考相关的技术论文以及开源代码。
https://arxiv.org/abs/2312.00752
https://github.com/state-spaces/mamba
https://huggingface.co/state-spaces
- 上一篇:NLP之神奇换框术(三)时间框架
- 下一篇:ERP 实施的时间框架
相关推荐
- 盲盒小程序背后的技术揭秘:如何打造个性化购物体验
-
在2025年的今天,盲盒小程序作为一种新兴的购物方式,正以其独特的魅力和个性化体验吸引着越来越多的消费者。这种将线上购物与盲盒概念相结合的应用,不仅为消费者带来了未知的惊喜,还通过一系列技术手段实现了...
- 小程序·云开发已支持单日亿级调用量,接口可用率高达99.99%
-
2019-10-1914:1210月19日,由腾讯云与微信小程序团队联合举办的“小程序·云开发”技术峰会在北京召开。会上,微信小程序团队相关负责人表示“小程序·云开发”系统架构已经支持每天亿级别的...
- 程序员副业开启模式:8个GitHub上可以赚钱的小程序
-
前言开源项目作者:JackonYang今天推荐的这个项目是「list-of-wechat-mini-program-list」,开源微信小程序列表的列表、有赚钱能力的小程序开源代码。这个项目分为两部分...
- 深度科普:盲盒小程序开发的底层逻辑
-
在当下的数字化浪潮中,盲盒小程序以其独特的趣味性和互动性,吸引着众多消费者的目光。无论是热衷于收集玩偶的年轻人,还是享受拆盒惊喜的上班族,都对盲盒小程序情有独钟。那么,这种备受欢迎的盲盒小程序,其开发...
- 微信小程序的制作步骤
-
SaaS小程序制作平台,作为数字化转型时代下的创新产物,不仅将易用性置于设计的核心位置,让非技术背景的用户也能轻松上手,快速制作出功能丰富、界面精美的小程序,更在性能和稳定性方面投入了大量精力,以确保...
- 携程开源--小程序构建工具,三分钟搞定
-
前言今天推荐的这个项目是「wean」,一个小程序构建打包工具。在wean之前,大量小程序工具使用webpack进行打包,各种loader、plugin导致整个开发链路变长。wean旨在解...
- 校园小程序的搭建以及营收模式校园外卖程序校园跑腿校园圈子系统
-
校园小程序的架构设计主要包括云端架构和本地架构两部分。云端架构方面,采用Serverless架构可以降低技术门槛,通过阿里云、腾讯云等平台提供的云服务,可以实现弹性扩容和快速部署。例如,使用云数据库、...
- 盲盒小程序开发揭秘:技术架构与实现原理全解析
-
在2025年的今天,盲盒小程序作为一种结合了线上购物与趣味性的创新应用,正受到越来越多用户的喜爱。其背后的技术架构与实现原理,对于想要了解或涉足这一领域的人来说,无疑充满了神秘与吸引力。本文将为大家科...
- 月活百万的小程序架构设计:流量暴增秘籍
-
从小程序到"大"程序的蜕变之路当你的小程序用户量从几千跃升至百万级别时,原有的架构就像一件不合身的衣服,处处紧绷。这个阶段最常遇到的噩梦就是服务器崩溃、接口超时、数据丢失。想象一下,在...
- 认知智能如何与产业结合?专家学者共探理论框架与落地实践
-
当前,以大模型为代表的生成式人工智能等前沿技术加速迭代,如何将认知智能与产业结合,成为摆在各行各业面前的一个问题。论坛现场。主办方供图7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议在...
- 现代中医理论框架
-
...
- 认知行为(CBT)中的ABC情绪理论
-
情绪ABC理论是由美国心理学家阿尔伯特·艾利斯(AlbertEllis1913-2007)创建的理论,A表示诱发性事件(Activatingevent),B表示个体针对此诱发性事件产生的一些信...
- 说说卡伦霍妮的理论框架,对你调整性格和人际关系,价值很大
-
01自在今天我主要想说下霍妮的理论框架。主要说三本书,第一本是《我们时代的神经症人格》,第二本是《我们内心的冲突》,第三本是《神经症与人的成长》。根据我的经验,三本书价值巨大,但并不是每个人都能读进去...
- 供应链管理-理论框架
-
一个最佳价值的供应链,应该是一个具有敏捷性、适应性和联盟功能(3A)的供应链,其基本要素包括战略资源、物流管理、关系管理以及信息系统,目标是实现速度、质量、成本、柔性的竞争优势。篇幅有...
- 微信WeUI设计规范文件下载及使用方法
-
来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。WeUI是一套同微信原生视觉体验一致的基础样式库,由微信官方设计团队为微信Web开发量身设计,可以令用户的使用感知...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- MVC框架 (46)
- spring框架 (46)
- 框架图 (58)
- bootstrap框架 (43)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- laravel框架 (46)
- express框架 (43)
- scrapy框架 (52)
- beego框架 (42)
- java框架spring (43)
- grpc框架 (55)
- 前端框架bootstrap (42)
- orm框架有哪些 (43)
- ppt框架 (48)
- 内联框架 (52)
- winform框架 (46)
- gui框架 (44)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)