Installing bitsandbytes for llama models is a bit more [involved](https://gitlab.lis-lab.fr/cluster/wiki/-/wikis/Compiling%20bitsandbytes%20for%20int8%20inference).
See RESULTS for the exact match results on the dev.
See runs.sh for how to generate runs.
Note that external APIs require API keys. Please rename api_keys.template.py to api_keys.py and set keys you need inside.
PROMPT='''Ceci est une question de QCM de l\'examen de pharmacie. Réponds avec la ou les lettres correspondant à la bonne réponse.\n\n%s'''
defmain(LLAMA_VARIANT:int=65,
MICRO_BATCH_SIZE:int=1,
BATCH_SIZE:int=24,
EPOCHS:int=1,
LEARNING_RATE:float=3e-4,
CUTOFF_LEN:int=256,
WARMUP_RATIO:float=0.05,
IS_INT8:bool=True,
LORA_R:int=4,
LORA_ALPHA:int=16,
LORA_DROPOUT:int=0.05,
valid_steps:int=20,
PROMPT:str='''Ceci est une question de QCM de l\'examen de pharmacie. Réponds avec la ou les lettres correspondant à la bonne réponse.\n\n%s''',
output_dir:str='deft_models',
train_json:str='../../json/train.json',
dev_json:str='../../json/dev.json',
):
#PROMPT = '''Ceci est une question de QCM de l\'examen de pharmacie. Réponds avec la ou les lettres correspondant à la bonne réponse.\n\n## Question 1\n\n%s'''