这个数据集 mmlu-high_school_psychology-neg
主要包含了高中文理心理学的问题和答案,适用于多项选择的分类任务。它包含了545个测试样本,每个样本有一个问题和四个选择项。
适用的模型
这个数据集适用于以下类型的模型:
- 语言模型(LLMs):如GPT-3、GPT-4、BERT、RoBERTa等,可以用于生成答案或进行选择。
- 分类模型:如基于Transformer的分类模型,可以直接用于多项选择题的答案分类。
- 问答模型:如T5、BART等,能够处理问答任务。
如何使用
下面是一个简单的使用示例,基于Hugging Face的Transformers库:
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForMultipleChoice
import torch
# 加载数据集
dataset = load_dataset("joey234/mmlu-high_school_psychology-neg")
# 选择模型和tokenizer
model_name = "bert-base-uncased" # 你可以选择适合的模型
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForMultipleChoice.from_pretrained(model_name)
# 准备数据
def encode(examples):
choices = examples['choices']
question = examples['question']
inputs = [question + " " + choice for choice in choices]
return tokenizer(inputs, padding=True, truncation=True, return_tensors="pt")
encoded_dataset = dataset.map(encode, batched=True)
# 预测
def predict(examples):
input_ids = examples['input_ids']
attention_mask = examples['attention_mask']
outputs = model(input_ids=input_ids, attention_mask=attention_mask)
predictions = torch.argmax(outputs.logits, dim=1)
return predictions
# 运行预测
predictions = encoded_dataset.map(predict, batched=True)
具体步骤
- 加载数据集:使用Hugging Face的
datasets
库来加载数据集。 - 选择模型和tokenizer:选择一个适合多项选择任务的预训练模型和对应的tokenizer。
- 准备数据:将问题和选项拼接起来,并使用tokenizer进行编码。
- 预测:使用模型对编码后的数据进行预测,并获取结果。
通过上述步骤,你可以轻松地使用这个数据集来训练和评估你的模型。如果你有更多的需求或具体问题,欢迎继续讨论!
Comments | NOTHING