楼主: 编程猿
282 0

AI时代人人必修课-提示词工程+大语言模型 多场景实战分享 [推广有奖]

  • 0关注
  • 0粉丝

高中生

85%

还不是VIP/贵宾

-

威望
0
论坛币
100 个
通用积分
0.2904
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
273 点
帖子
17
精华
0
在线时间
15 小时
注册时间
2023-6-22
最后登录
2024-4-26

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
AI时代人人必修课-提示词工程+大语言模型 多场景实战分享
AI时代下,只要掌握提示词工程技能,每个人都能驾驭AI,成为职场、副业等多场景下的高效能人士
链接:https://pan.baidu.com/s/1H-k7S6c_mbf62DAY4neNrQ?pwd=sys8
提取码:sys8
--来自百度网盘超级会员V3的分享

跟着自然语言处理技术的不断发展,提示词工程和大模型多场景使用成为了研究的热门。提示词工程旨在经过规划有效的提示词,进步模型对于特定任务的性能。而大模型多场景使用则将大型预练习模型使用于不同的场景,以实现愈加广泛的使用。本文将经过示例代码的方式,介绍怎么实现提示词工程和大模型多场景使用。

提示词工程的中心在于规划有效的提示词,以引导模型重视任务相关的信息。以下是一个基于Python的示例代码,展示怎么规划提示词:

python仿制代码
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# 加载预练习模型和分词器
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased")
# 规划提示词
prefix = "[CLS] This is a sentence."
suffix = ". [SEP]"
input_ids = tokenizer.encode(prefix + suffix, return_tensors="pt")
# 输入提示词到模型中
outputs = model(input_ids)
# 获取模型的输出成果
predicted_label = torch.argmax(outputs.logits, dim=1).item()

三、大模型多场景使用示例代码

大模型多场景使用将大型预练习模型使用于不同的场景,以实现愈加广泛的使用。以下是一个基于Python的示例代码,展示怎么将GPT-3模型使用于不同的场景: python仿制代码
import torch
from transformers import GPT3Tokenizer, GPT3Model
# 加载预练习模型和分词器
tokenizer = GPT3Tokenizer.from_pretrained("gpt3-medium")
model = GPT3Model.from_pretrained("gpt3-medium")
# 使用模型于不同场景
# 场景1:文本生成
input_text = "The quick brown fox jumps over the lazy dog."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output = model.generate(input_ids)
output_text = tokenizer.decode(output[0], skip_special_tokens=True)
print("场景1:文本生成", output_text)
# 场景2:问答体系
question = "What is the capital of France?"
input_ids = tokenizer.encode(question, return_tensors="pt")
output = model.generate(input_ids)
output_text = tokenizer.decode(output[0], skip_special_tokens=True)
print("场景2:问答体系", output_text)
在这个示例中,咱们使用了GPT-3模型进行文本生成和问答体系的任务。经过规划不同的输入文本和提示词,咱们能够将大型预练习模型使用于不同的场景,实现愈加广泛的使用。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:必修课 Transformers transform Predicted sequence

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-27 09:06