corpus stringclasses 4
values | category stringclasses 9
values | dataset stringclasses 23
values | task stringclasses 69
values | prompt stringclasses 51
values | model stringclasses 29
values | ckpt_num int64 500 14.3k | score float64 -0.09 100 |
|---|---|---|---|---|---|---|---|
pre-HPLT 3.0 CD | Language-specific & world knowledge | openbookqa_ca | openbookqa_ca_p1 | {{question_stem}}
A. {{choices['text'][0]}}
B. {{choices['text'][1]}}
C. {{choices['text'][2]}}
D. {{choices['text'][3]}}
Resposta: | 2B | 1,000 | 27.6 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | openbookqa_ca | openbookqa_ca_p2 | {{question_stem}}
Opció A: {{choices['text'][0]}}
Opció B: {{choices['text'][1]}} C: {{choices['text'][2]}}
Opció D: {{choices['text'][3]}}
És la resposta correcta A, B, C o D? | 2B | 1,000 | 25.2 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p0 | null | 2B | 1,000 | 51.4 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p1 | Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta: | 2B | 1,000 | 49.6 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p2 | Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta: | 2B | 1,000 | 49.7 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p0 | null | 2B | 1,000 | 49.2 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p1 | Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta: | 2B | 1,000 | 54.65 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p2 | Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta: | 2B | 1,000 | 54.65 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p0 | Pregunta: {{goal}}
Resposta: | 2B | 1,000 | 57.671 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p1 | {{goal}}
A. {{sol1}}
B. {{sol2}}
Resposta: | 2B | 1,000 | 49.51 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p2 | {{goal}}
A. {{sol1}}
B. {{sol2}}
Quina és la resposta correcta? | 2B | 1,000 | 49.51 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p0 | Pregunta: {{context}} {{question}}
Resposta: | 2B | 1,000 | 35.363 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p1 | Passatge: {{context}}
Pregunta: {{question}}
A. {{answerA}}
B. {{answerB}}
C. {{answerC}}
Resposta: | 2B | 1,000 | 33.009 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p2 | Llegeix el passatge i respon a la pregunta: {{context}}
{{question}}
Opció A: {{answerA}}
Opció B: {{answerB}}
Opció C: {{answerC}}
És la resposta correcta A, B o C? | 2B | 1,000 | 33.47 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p0 | null | 2B | 1,000 | 34.152 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p1 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi: | 2B | 1,000 | 33.727 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p2 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta: | 2B | 1,000 | 33.302 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p0 | Respon a la següent pregunta:
{{question}}
Resposta: | 2B | 1,000 | 0.014 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p1 | Respon amb claredat i precisió a la pregunta següent:
{{question}}
Resposta: | 2B | 1,000 | 0.015 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p2 | Proporciona una resposta detallada per a la pregunta següent:
{{question}}
Resposta: | 2B | 1,000 | 1.187 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p0 | Pregunta: {{question}}
Resposta: | 2B | 1,000 | 30.312 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p1 | def mc1_p1(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(let... | 2B | 1,000 | 75.071 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p2 | def mc1_p2(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
| 2B | 1,000 | 32.011 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p0 | Pregunta: {{question}}
Resposta: | 2B | 1,000 | 56.236 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p1 | def mc2_p1(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(let... | 2B | 1,000 | 77.958 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p2 | def mc2_p2(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
| 2B | 1,000 | 58.219 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p0 | {{sentence1}}
Pregunta: {{sentence2}} Cert o Fals?
Resposta: | 2B | 1,000 | 49.296 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p1 | Llegeix el text i contesta si l'afirmació és veritable o falsa.
Texto: {{sentence1}}
Afirmación: {{sentence2}}
Resposta: | 2B | 1,000 | 43.662 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p2 | {{sentence1}}
Pregunta: {{sentence2}}.
Resposta: | 2B | 1,000 | 43.662 |
pre-HPLT 3.0 CD | Entailment | xnli_ca | xnli_ca_p0 | null | 2B | 1,000 | 38.434 |
pre-HPLT 3.0 CD | Entailment | xnli_ca | xnli_ca_p1 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi: | 2B | 1,000 | 33.414 |
pre-HPLT 3.0 CD | Entailment | xnli_ca | xnli_ca_p2 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta: | 2B | 1,000 | 33.333 |
pre-HPLT 3.0 CD | Reading comprehension | xquad_ca | xquad_ca_p0 | Context: {{context}}
Pregunta: {{question}}
Resposta: | 2B | 1,000 | 2.98 |
pre-HPLT 3.0 CD | Reading comprehension | xquad_ca | xquad_ca_p1 | {{context}}
Pregunta: {{question}}
Respecte al passatge anterior, la resposta correcta a la pregunta és | 2B | 1,000 | 2.131 |
pre-HPLT 3.0 CD | Reading comprehension | xquad_ca | xquad_ca_p2 | Llegeix el següent passatge i contesta la pregunta.
Passatge: {{context}}
Pregunta: {{question}}
Resposta: | 2B | 1,000 | 3.318 |
pre-HPLT 3.0 CD | Commonsense reasoning | xstorycloze_ca | xstorycloze_ca_p0 | {{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}} | 2B | 1,000 | 53.805 |
pre-HPLT 3.0 CD | Commonsense reasoning | xstorycloze_ca | xstorycloze_ca_p1 | Llegeix la següent història: {{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4]|join(' ')}}
Tria la continuació correcta:
- {{sentence_quiz1}}
- {{sentence_quiz2}} | 2B | 1,000 | 50.761 |
pre-HPLT 3.0 CD | Commonsense reasoning | xstorycloze_ca | xstorycloze_ca_p2 | {{[input_sentence_1, input_sentence_2, input_sentence_3, input_sentence_4] | join(' ') }}
Què ocorre després?
A. {{ sentence_quiz1}}
B. {{sentence_quiz2}}
Resposta: | 2B | 1,000 | 52.813 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_challenge | arc_ca_challenge_p0 | Pregunta: {{question}}
Resposta: | 3B | 1,500 | 24.573 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_challenge | arc_ca_challenge_p1 | def p1(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"{choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nResposta:"
| 3B | 1,500 | 23.038 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_challenge | arc_ca_challenge_p2 | def p2(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"Opción {choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(choices[:-1])} o {ch... | 3B | 1,500 | 22.27 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_easy | arc_ca_easy_p0 | Pregunta: {{question}}
Resposta: | 3B | 1,500 | 33.586 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_easy | arc_ca_easy_p1 | def p1(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"{choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nResposta:"
| 3B | 1,500 | 26.136 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | arc_ca_easy | arc_ca_easy_p2 | def p2(doc):
candidates, choices = doc["choices"]["text"], doc["choices"]["label"]
formatted_choices = "\n".join(
[f"Opción {choices[i]}: {candidates[i]}" for i, _ in enumerate(candidates)]
)
return f"{doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(choices[:-1])} o {ch... | 3B | 1,500 | 25.126 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | catalanqa | catalanqa_p0 | Context: {{context}}
Pregunta: {{question}}
Resposta: | 3B | 1,500 | 3.742 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | catalanqa | catalanqa_p1 | {{context}}
Pregunta: {{question}}
Respecte al passatge anterior, la resposta correcta a la pregunta és | 3B | 1,500 | 3.599 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | catalanqa | catalanqa_p2 | Llegeix el següent passatge i contesta la pregunta.
Passatge: {{context}}
Pregunta: {{question}}
Resposta: | 3B | 1,500 | 4.468 |
pre-HPLT 3.0 CD | Reading comprehension | catbelebele | catbelebele_p0 | Passatge: {{flores_passage}}
Pregunta: {{question.strip()}}
A. {{mc_answer1}}
B. {{mc_answer2}}
C. {{mc_answer3}}
D. {{mc_answer4}}
Resposta: | 3B | 1,500 | 22.778 |
pre-HPLT 3.0 CD | Reading comprehension | catbelebele | catbelebele_p1 | Llegeix el passatge i respon a la pregunta: {{flores_passage}}
{{question.strip()}}
Opció A: {{mc_answer1}}
Opció B: {{mc_answer2}}
Opció C: {{mc_answer3}}
Opció D: {{mc_answer4}}
És la resposta correcta A, B, C o D? | 3B | 1,500 | 26.111 |
pre-HPLT 3.0 CD | Reading comprehension | catbelebele | catbelebele_p2 | {{flores_passage}}
En base al passatge anterior, respon a la pregunta: {{question}}
A: {{mc_answer1}}
B: {{mc_answer2}}
C: {{mc_answer3}}
D: {{mc_answer4}}
Quina és la resposta correcta? | 3B | 1,500 | 23.333 |
pre-HPLT 3.0 CD | Language knowledge | catcola | catcola_p0 | {{Sentence}}
Pregunta: Té sentit aquesta frase?
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Language knowledge | catcola | catcola_p1 | Frase: {{Sentence}}
Pregunta: Té sentit aquesta frase?
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Language knowledge | catcola | catcola_p2 | Determina si la següent frase té sentit: {{Sentence}}
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Commonsense reasoning | cocoteros_va | cocoteros_va_p0 | Genera una frase curta amb estes paraules: {{keywords}}. El context és: {{context}}
Resposta: | 3B | 1,500 | 0.573 |
pre-HPLT 3.0 CD | Commonsense reasoning | cocoteros_va | cocoteros_va_p1 | Escriu una frase curta amb aquestes paraules clau: {{keywords}}.
Tingues en compte el següent context: {{context}}.
Resposta: | 3B | 1,500 | 0.001 |
pre-HPLT 3.0 CD | Commonsense reasoning | cocoteros_va | cocoteros_va_p2 | Construeix una oració tenint en compte el següent context: {{context}}.
Utilitza les paraules clau: {{keywords}}.
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Commonsense reasoning | copa_ca | copa_ca_p0 | {{premise[:-1].strip() + " " + {"cause": "perquè", "effect": "i per tant"}[question]}} | 3B | 1,500 | 56.4 |
pre-HPLT 3.0 CD | Commonsense reasoning | copa_ca | copa_ca_p1 | {{premise[:-1].strip() + " " + {"cause": "atès que", "effect": "així que"}[question]}} | 3B | 1,500 | 56.8 |
pre-HPLT 3.0 CD | Commonsense reasoning | copa_ca | copa_ca_p2 | {{premise[:-1].strip() + {"cause": " a causa que", "effect": ", i com a resultat,"}[question]}} | 3B | 1,500 | 58 |
pre-HPLT 3.0 CD | Reading comprehension | coqcat | coqcat_p0 | {{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Q: "+questions[i]+"\n\n"+"A: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Q: "+questions[-1]+"\n\n"+"A:"}} | 3B | 1,500 | 12.045 |
pre-HPLT 3.0 CD | Reading comprehension | coqcat | coqcat_p1 | Llegeix el següent passatge i contesta la pregunta\n\nPassatge: {{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}} | 3B | 1,500 | 12.584 |
pre-HPLT 3.0 CD | Reading comprehension | coqcat | coqcat_p2 | Llegeix el següent passatge i contesta la pregunta\n\nPassatge: {{story+"\n\n"}}{% for i in range(questions|length-1) %}{{"Pregunta: "+questions[i]+"\n\n"+"Resposta: "+answers["input_text"][i]+"\n\n"}}{% endfor %}{{"Pregunta: "+questions[-1]+"\n\n"+"Resposta:"}} | 3B | 1,500 | 12.584 |
pre-HPLT 3.0 CD | Machine translation | flores_en-ca | flores_en-ca_p0 | Translate the following sentence into Catalan: {{sentence_eng_Latn}}
Catalan: | 3B | 1,500 | 0.011 |
pre-HPLT 3.0 CD | Machine translation | flores_en-ca | flores_en-ca_p1 | Translate the sentence from English to Catalan.
Source sentence (English): {{sentence_eng_Latn}}
Target sentence (Catalan): | 3B | 1,500 | 0.035 |
pre-HPLT 3.0 CD | Machine translation | flores_en-ca | flores_en-ca_p2 | The following sentence is written in English. Translate it into Catalan.
English: {{sentence_eng_Latn}}
Catalan: | 3B | 1,500 | 0.037 |
pre-HPLT 3.0 CD | Mathematical reasoning | mgsm_direct_ca | mgsm_direct_ca_p0 | Pregunta: {{question}}
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Mathematical reasoning | mgsm_direct_ca | mgsm_direct_ca_p1 | Respon amb claredat i precisió a la pregunta següent
{{question}}
Resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Mathematical reasoning | mgsm_direct_ca | mgsm_direct_ca_p2 | Respon a la següent pregunta:
{{question}}
Raona la teva resposta: | 3B | 1,500 | 0 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | openbookqa_ca | openbookqa_ca_p0 | question_stem | 3B | 1,500 | 28.4 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | openbookqa_ca | openbookqa_ca_p1 | {{question_stem}}
A. {{choices['text'][0]}}
B. {{choices['text'][1]}}
C. {{choices['text'][2]}}
D. {{choices['text'][3]}}
Resposta: | 3B | 1,500 | 27.8 |
pre-HPLT 3.0 CD | Language-specific & world knowledge | openbookqa_ca | openbookqa_ca_p2 | {{question_stem}}
Opció A: {{choices['text'][0]}}
Opció B: {{choices['text'][1]}} C: {{choices['text'][2]}}
Opció D: {{choices['text'][3]}}
És la resposta correcta A, B, C o D? | 3B | 1,500 | 28 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p0 | null | 3B | 1,500 | 53.675 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p1 | Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta: | 3B | 1,500 | 49.6 |
pre-HPLT 3.0 CD | Paraphrase detection | parafraseja | parafraseja_p2 | Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta: | 3B | 1,500 | 49.7 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p0 | null | 3B | 1,500 | 47.5 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p1 | Determina si les dues oracions següents expressen la mateixa idea o no.
Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Resposta: | 3B | 1,500 | 54.6 |
pre-HPLT 3.0 CD | Paraphrase detection | paws_ca | paws_ca_p2 | Oració 1: {{sentence1}}
Oració 2: {{sentence2}}
Pregunta: Les oracions 1 i 2 expressen el mateix significat? Sí o no?
Resposta: | 3B | 1,500 | 53.35 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p0 | Pregunta: {{goal}}
Resposta: | 3B | 1,500 | 57.943 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p1 | {{goal}}
A. {{sol1}}
B. {{sol2}}
Resposta: | 3B | 1,500 | 49.51 |
pre-HPLT 3.0 CD | Commonsense reasoning | piqa_ca | piqa_ca_p2 | {{goal}}
A. {{sol1}}
B. {{sol2}}
Quina és la resposta correcta? | 3B | 1,500 | 49.51 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p0 | Pregunta: {{context}} {{question}}
Resposta: | 3B | 1,500 | 33.623 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p1 | Passatge: {{context}}
Pregunta: {{question}}
A. {{answerA}}
B. {{answerB}}
C. {{answerC}}
Resposta: | 3B | 1,500 | 33.316 |
pre-HPLT 3.0 CD | Commonsense reasoning | siqa_ca | siqa_ca_p2 | Llegeix el passatge i respon a la pregunta: {{context}}
{{question}}
Opció A: {{answerA}}
Opció B: {{answerB}}
Opció C: {{answerC}}
És la resposta correcta A, B o C? | 3B | 1,500 | 33.521 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p0 | null | 3B | 1,500 | 32.688 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p1 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi: | 3B | 1,500 | 33.16 |
pre-HPLT 3.0 CD | Entailment | teca | teca_p2 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Quina és la relació entre la premissa i la hipòtesi?
A. En acord
B. Neutres entre si
C. En contradicció
Resposta: | 3B | 1,500 | 32.546 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p0 | Respon a la següent pregunta:
{{question}}
Resposta: | 3B | 1,500 | 0.036 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p1 | Respon amb claredat i precisió a la pregunta següent:
{{question}}
Resposta: | 3B | 1,500 | 0.042 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_gen | veritasqa_ca_gen_p2 | Proporciona una resposta detallada per a la pregunta següent:
{{question}}
Resposta: | 3B | 1,500 | 0.146 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p0 | Pregunta: {{question}}
Resposta: | 3B | 1,500 | 31.161 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p1 | def mc1_p1(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(let... | 3B | 1,500 | 82.436 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc1 | veritasqa_ca_mc1_p2 | def mc1_p2(doc):
choices = doc["mc1_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
| 3B | 1,500 | 45.042 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p0 | Pregunta: {{question}}
Resposta: | 3B | 1,500 | 54.019 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p1 | def mc2_p1(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "\n".join(
[f"Opción {LETTERS[i]}: {choice}" for i, choice in enumerate(choices)]
)
letters = LETTERS[: len(choices)]
return f"Pregunta: {doc['question']}\n{formatted_choices}\nÉs la resposta correcta {', '.join(let... | 3B | 1,500 | 84.791 |
pre-HPLT 3.0 CD | Truthfulness | veritasqa_ca_mc2 | veritasqa_ca_mc2_p2 | def mc2_p2(doc):
choices = doc["mc2_targets"]["choices"]
formatted_choices = "".join(list(map(lambda choice: f"\n- {choice}", choices)))
return f"Pregunta: {doc['question']}\nTria la resposta correcta de la llista:\n{formatted_choices}\nQuina és la resposta correcta?\nResposta:"
| 3B | 1,500 | 64.408 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p0 | {{sentence1}}
Pregunta: {{sentence2}} Cert o Fals?
Resposta: | 3B | 1,500 | 52.113 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p1 | Llegeix el text i contesta si l'afirmació és veritable o falsa.
Texto: {{sentence1}}
Afirmación: {{sentence2}}
Resposta: | 3B | 1,500 | 43.662 |
pre-HPLT 3.0 CD | Entailment | wnli_ca | wnli_ca_p2 | {{sentence1}}
Pregunta: {{sentence2}}.
Resposta: | 3B | 1,500 | 43.662 |
pre-HPLT 3.0 CD | Entailment | xnli_ca | xnli_ca_p0 | null | 3B | 1,500 | 42.329 |
pre-HPLT 3.0 CD | Entailment | xnli_ca | xnli_ca_p1 | Premissa: {{premise}}
Hipòtesi: {{hypothesis}}
Indica la relació entre la premissa i la hipòtesi: | 3B | 1,500 | 33.855 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.