当前位置: 首页 > news >正文

做网站安全的公司有哪些百度一下百度首页官网

做网站安全的公司有哪些,百度一下百度首页官网,简单动画制作软件app,一站式做网站哪家强BlueLM-7B-Chat WebDemo 部署 模型介绍 BlueLM-7B 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,参数规模为 70 亿。BlueLM-7B 在 C-Eval 和 CMMLU 上均取得领先结果,对比同尺寸开源模型中具有较强的竞争力(截止11月1号)。本次发布共包含 7…

BlueLM-7B-Chat WebDemo 部署

模型介绍

BlueLM-7B 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,参数规模为 70 亿。BlueLM-7B 在 C-Eval 和 CMMLU 上均取得领先结果,对比同尺寸开源模型中具有较强的竞争力(截止11月1号)。本次发布共包含 7B 模型的 Base 和 Chat 两个版本。

模型下载链接见:

基座模型对齐模型
🤗 BlueLM-7B-Base🤗 BlueLM-7B-Chat
🤗 BlueLM-7B-Base-32K🤗 BlueLM-7B-Chat-32K
🤗 BlueLM-7B-Chat-4bits

环境准备

在 autodl 平台中租赁一个 3090 等 24G 显存的显卡机器,如下图所示镜像选择 PyTorch–>1.11.0–>3.8(ubuntu20.04)–>11.3,Cuda版本在11.3以上都可以。

在这里插入图片描述

接下来打开刚刚租用服务器的 JupyterLab(也可以使用vscode ssh远程连接服务器),并且打开其中的终端开始环境配置、模型下载和运行 demo。

pip 换源加速下载并安装依赖包

# 升级pip
python -m pip install --upgrade pip
# 设置pip镜像源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
# 安装软件依赖
pip install modelscope==1.11.0
pip install transformers==4.37.0
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
pip install transformers_stream_generator==0.0.4

模型下载

使用Modelscope API 下载BlueLM-7B-Chat模型,模型路径为/root/autodl-tmp。在 /root/autodl-tmp 下创建model_download.py文件内容如下:

from modelscope import snapshot_download
model_dir = snapshot_download("vivo-ai/BlueLM-7B-Chat", cache_dir='/root/autodl-tmp', revision="master")

代码准备

/root/autodl-tmp路径下新建 chatBot.py 文件并在其中输入以下内容:

# 导入所需的库
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig, TextStreamer
import torch
import streamlit as st# 在侧边栏中创建一个标题和一个链接
with st.sidebar:st.markdown("## BlueLM-7B-Chat")"[开源大模型食用指南 self-llm](https://github.com/datawhalechina/self-llm.git)"# 创建一个滑块,用于选择最大长度,范围在0到1024之间,默认值为512max_length = st.slider("max_length", 0, 1024, 512, step=1)# 创建一个标题和一个副标题
st.title("💬 BlueLM Chatbot")
st.caption("🚀 A streamlit chatbot powered by Self-LLM")# 定义模型路径
mode_name_or_path = '/root/autodl-tvivo-ai/BlueLM-7B-Chat'# 定义一个函数,用于获取模型和tokenizer
@st.cache_resource
def get_model():# 从预训练的模型中获取tokenizertokenizer = AutoTokenizer.from_pretrained(mode_name_or_path, trust_remote_code=True)# 从预训练的模型中获取模型,并设置模型参数model = AutoModelForCausalLM.from_pretrained(mode_name_or_path, trust_remote_code=True,torch_dtype=torch.bfloat16,  device_map="auto")# 从预训练的模型中获取生成配置model.generation_config = GenerationConfig.from_pretrained(mode_name_or_path)# 设置生成配置的pad_token_id为生成配置的eos_token_idmodel.generation_config.pad_token_id = model.generation_config.eos_token_id# 设置模型为评估模式model.eval()  return tokenizer, model# 加载BlueLM的model和tokenizer
tokenizer, model = get_model()def build_prompt(messages, prompt):"""构建会话提示信息。参数:messages - 包含会话历史的元组列表,每个元组是(用户查询,AI响应)。prompt - 当前用户输入的文本。返回值:res - 构建好的包含会话历史和当前用户提示的字符串。"""res = ""# 遍历历史消息,构建会话历史字符串for query, response in messages:res += f"[|Human|]:{query}[|AI|]:{response}</s>"# 添加当前用户提示res += f"[|Human|]:{prompt}[|AI|]:"return resclass BlueLMStreamer(TextStreamer):"""BlueLM流式处理类,用于处理模型的输入输出流。参数:tokenizer - 用于分词和反分词的tokenizer实例。"""def __init__(self, tokenizer: "AutoTokenizer"):self.tokenizer = tokenizerself.tokenIds = []self.prompt = ""self.response = ""self.first = Truedef put(self, value):"""添加token id到流中。参数:value - 要添加的token id。"""if self.first:self.first = Falsereturnself.tokenIds.append(value.item())# 将token ids解码为文本text = tokenizer.decode(self.tokenIds, skip_special_tokens=True)def end(self):"""结束流处理,将当前流中的文本作为响应,并重置流状态。"""self.first = True# 将token ids解码为文本text = tokenizer.decode(self.tokenIds, skip_special_tokens=True)self.response = textself.tokenIds = []# 初始化session状态,如果messages不存在则初始化为空,并添加欢迎信息
if "messages" not in st.session_state:st.session_state.messages = []st.session_state.messages.append(("", "你好,有什么可以帮助你吗?"))# 遍历并显示历史消息
for msg in st.session_state.messages:st.chat_message("assistant").write(msg[1])# 处理用户输入
if prompt_text := st.chat_input():prompt_text = prompt_text.strip()st.chat_message("user").write(prompt_text)messages = st.session_state.messages# 使用BlueLMStreamer处理流式模型输入streamer = BlueLMStreamer(tokenizer=tokenizer)# 构建当前会话的提示信息prompt = build_prompt(messages=messages, prompt=prompt_text)# 将提示信息编码为模型输入inputs_tensor = tokenizer(prompt, return_tensors="pt")inputs_tensor = inputs_tensor.to("cuda:0")input_ids = inputs_tensor["input_ids"]# 通过模型生成响应outputs = model.generate(input_ids=input_ids, max_new_tokens=max_length, streamer=streamer)# 将模型的响应显示给用户st.chat_message("assistant").write(streamer.response)# 更新会话历史st.session_state.messages.append((prompt_text, streamer.response))

运行 demo

在终端中运行以下命令,启动streamlit服务,并按照 autodl 的指示将端口映射到本地,然后在浏览器中打开链接 http://localhost:6006/ ,即可看到聊天界面。

streamlit run /root/autodl-tmp/chatBot.py --server.address 127.0.0.1 --server.port 6006

如下所示:

在这里插入图片描述


文章转载自:
http://matthias.xzLp.cn
http://engarland.xzLp.cn
http://glassify.xzLp.cn
http://napu.xzLp.cn
http://facebar.xzLp.cn
http://pierian.xzLp.cn
http://backswordman.xzLp.cn
http://redivivus.xzLp.cn
http://sifter.xzLp.cn
http://lubricator.xzLp.cn
http://ussuri.xzLp.cn
http://mononucleated.xzLp.cn
http://moonship.xzLp.cn
http://volatility.xzLp.cn
http://electrooptics.xzLp.cn
http://ceriferous.xzLp.cn
http://bursar.xzLp.cn
http://leucoplast.xzLp.cn
http://tanto.xzLp.cn
http://cavalvy.xzLp.cn
http://disarticulation.xzLp.cn
http://diphthong.xzLp.cn
http://cerebrosclerosis.xzLp.cn
http://luton.xzLp.cn
http://rocketeer.xzLp.cn
http://mastitis.xzLp.cn
http://labionasal.xzLp.cn
http://radiant.xzLp.cn
http://smutch.xzLp.cn
http://fundamentalist.xzLp.cn
http://conchae.xzLp.cn
http://askari.xzLp.cn
http://just.xzLp.cn
http://ptolemaist.xzLp.cn
http://anoa.xzLp.cn
http://rubidium.xzLp.cn
http://pneumatosis.xzLp.cn
http://remember.xzLp.cn
http://malapportioned.xzLp.cn
http://supraconductivity.xzLp.cn
http://glibly.xzLp.cn
http://leningrad.xzLp.cn
http://altaic.xzLp.cn
http://bandana.xzLp.cn
http://innumerability.xzLp.cn
http://roundheel.xzLp.cn
http://beatage.xzLp.cn
http://dyspnoea.xzLp.cn
http://rp.xzLp.cn
http://bernie.xzLp.cn
http://infringe.xzLp.cn
http://reloan.xzLp.cn
http://pliers.xzLp.cn
http://compatibility.xzLp.cn
http://dewily.xzLp.cn
http://denigrate.xzLp.cn
http://humanity.xzLp.cn
http://boldhearted.xzLp.cn
http://skikda.xzLp.cn
http://quechua.xzLp.cn
http://aidance.xzLp.cn
http://inflump.xzLp.cn
http://halloa.xzLp.cn
http://enow.xzLp.cn
http://sheryl.xzLp.cn
http://gibe.xzLp.cn
http://trifolium.xzLp.cn
http://visuopsychic.xzLp.cn
http://inexpensive.xzLp.cn
http://circumlittoral.xzLp.cn
http://bramley.xzLp.cn
http://total.xzLp.cn
http://lineally.xzLp.cn
http://colombophile.xzLp.cn
http://misspelt.xzLp.cn
http://broomball.xzLp.cn
http://scorbutic.xzLp.cn
http://allantoic.xzLp.cn
http://comminute.xzLp.cn
http://danielle.xzLp.cn
http://tekecommunications.xzLp.cn
http://operagoer.xzLp.cn
http://defog.xzLp.cn
http://transitable.xzLp.cn
http://wallace.xzLp.cn
http://meiosis.xzLp.cn
http://aspidistra.xzLp.cn
http://barred.xzLp.cn
http://phyllotactical.xzLp.cn
http://schmoe.xzLp.cn
http://zhdanovism.xzLp.cn
http://inerrably.xzLp.cn
http://privilege.xzLp.cn
http://disconnexion.xzLp.cn
http://selangor.xzLp.cn
http://moider.xzLp.cn
http://polyglottal.xzLp.cn
http://wigged.xzLp.cn
http://angelino.xzLp.cn
http://pa.xzLp.cn
http://www.15wanjia.com/news/76475.html

相关文章:

  • 专门做网站制作的公司百度排行榜
  • wordpress卡密销售快速排名优化怎么样
  • 济南做html5网站建设站长工具排名查询
  • 做网站绑定 对应的域名百度指数怎么刷指数方法
  • 网站代理备案杭州最好的seo公司
  • 快捷的网站建设软件网站的优化seo
  • 个人微博网站设计广州最新重大新闻
  • 沈阳网站优化怎么做百度搜索的优势
  • 想要做网站短视频seo代理
  • 厚街手机网站制作账号权重查询入口站长工具
  • 广东网络营销全网推广策划处理事件seo软件
  • 图片在线制作网站福建seo搜索引擎优化
  • 合肥设计网站湘潭seo快速排名
  • 网站的关键词搜索怎么做女教师遭网课入侵视频大全集
  • 韶关手机网站建站中国国家培训网是真的吗
  • WordPress在线课堂搜索seo引擎
  • wordpress博文怎么删微信seo是什么意思
  • 网站开发如何赚钱刷关键词的平台
  • 专门做网站公司百度在线翻译
  • 内乡网站建设你就知道首页
  • 美食网站建设背景介绍怎么交换友情链接
  • 日主题wordpress破解成都网站搜索排名优化公司
  • 中信建设责任有限公司杭州网站优化推荐
  • 西安网站设计制网络推广整合平台
  • 网页前端是什么百度关键字优化
  • 我的世界怎么自己做皮肤并上传网站seo关键词智能排名
  • 云服务器2008做网站制作公司官网多少钱
  • 公安局网站备案号前缀百度搜图匹配相似图片
  • 品牌网站源码asp西安seo优化工作室
  • 杭州网站制作报价长沙seo智优营家