前言
这不兔年到了,薅薅兔毛;
昨天帮小兔子完成课后作业,作了一首包含 “兔” 字的古诗,小兔子也因此受到了老师的表扬,具体可以阅读这篇文章:【AI】用 GPT 帮小兔子写首诗;
今天,小兔子的老师又给她布置了新的课后作业,新春来临之际,写一篇文章来记录一下自己的新春生活;
于是懒惰的小兔子又第一时间找到了博主,让博主用 AI 帮她写一写;
剧情需要,作业还是要自己写的!
正文
言归正传,这里用的是一个12层的小模型,因此精度也相对较低;
还是先加载相应的 tokenizer
以及预训练模型:
from transformers import GPT2Tokenizer,GPT2LMHeadModel
check_point = ''
tokenizer = GPT2Tokenizer.from_pretrained(check_point)
model = GPT2LMHeadModel.from_pretrained(check_point)
输入一段文本,因为小兔子的作文是要记录一下自己的新春生活,因此,我们可以给个开头 “大年初一,”,如下:
代码语言:javascript复制text = "大年初一,"
然后就是将输入文本交给 tokenizer
进行预处理,传入模型 model
,对于模型返回的结果进行处理,得到最终结果:
inputs = tokenizer(text,return_tensors='pt')
outputs = model.generate(**inputs, ...)
for idx, sentence in enumerate(outputs.sequences):
print(f"{idx 1}、", tokenizer.decode(sentence).split('<|endoftext|>')[0], 'n')
可以看到结果其实不是那么的精准,有些看着就奇奇怪怪的,毕竟模型比较小,参数少,不过可以多输出一些结果,总有比较合适的;
后记
以上就是 【AI】用 GPT 帮小兔子写文章 的全部内容了。
希望本篇博文对大家有所帮助!