Update README.md
Browse files
README.md
CHANGED
@@ -33,6 +33,6 @@ tokenizer = AutoTokenizer.from_pretrained("MaxLSB/LeCarnet-21M")
|
|
33 |
prompt = "Il était une fois"
|
34 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
35 |
|
36 |
-
output = model.generate(input_ids, max_length=512)
|
37 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
38 |
```
|
|
|
33 |
prompt = "Il était une fois"
|
34 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
35 |
|
36 |
+
output = model.generate(input_ids, max_length=512, temperature=0.4)
|
37 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
38 |
```
|