l0rdkr0n0s commited on
Commit
8ad2514
·
verified ·
1 Parent(s): 5e0cb0c

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,587 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:668
8
+ - loss:CosineSimilarityLoss
9
+ base_model: intfloat/multilingual-e5-large-instruct
10
+ widget:
11
+ - source_sentence: 'pershendetje
12
+
13
+
14
+ ne shator te vitit 2023 ,me eshte dhene masa e sigurimit e arrestit me burg ,per
15
+ vepren penale te 88 ne bashkepunim dhe 150 te kodit Penal.Ne mars te 2024 me eshte
16
+ revokuar vendimi i mases per burg,duke me lene arrest shtepie pasi ndryshoj vepra
17
+ penale ne nga neni 88 ne nenin 89/1 ne bashkepunim deri ne prill te 2024 ,date
18
+ ku jam gjykuar perfundimisht nga gjykata.Nga masa e sigurimit e deri ne perfundim
19
+ jam gjykuar ne bashkepunim.Ceshtja per nenin 89 u pushua per shkak te amistise
20
+ ,nderkohe qe nenin 150 u pushua per shkak se fakti nuk perben veper penale.Pyetja
21
+ ime eshte a kam te drejte ti drejtohem gjykates per kompesim per burgim te padrejte
22
+ per te pakten per pushimin e ceshtjes te nenit 150 po per pushimin e ceshtjes
23
+ per nenin 89 kam te drejte
24
+
25
+
26
+ nese po sa llogaritet dhe si te drejtohem .
27
+
28
+
29
+ sqaroj se jam gjykuar ne bashkepunim per nenin 88 me vellain tim.Ju faleminderit.'
30
+ sentences:
31
+ - "Përshëndetje,\n\nLigji që i jep përgjigje pyetjes suaj është Ligji nr. 29/2023\
32
+ \ “Për Tatimin mbi të ardhurat”.\n\nTatimi në burim është 15% mbi të ardhurat\
33
+ \ dhe pagesat, Neni 59 i këtij ligji.\n\nNë rastin konkret, është një subjekt\
34
+ \ që sipas ligjit është i përjashtuar nga tatimi në burim. Kjo është rrjedhojë\
35
+ \ e:\n1. Neni 12, pika 4/d e këtij ligji që parashikon se të ardhurat e fituara\
36
+ \ nga punësimi nuk do të konsiderohen si të tilla:\n\nTë ardhurat që rrjedhin\
37
+ \ nga pagat dhe kompensimet për marrëdhëniet e punës të zyrtarëve të konsullatave,\
38
+ \ diplomatët, ose të ngjashëm të vendeve të treta dhe organizatave ndërkombëtare,\
39
+ \ të cilët gjatë kryerjes së funksioneve të tyre zyrtare në Republikën e Shqipërisë,\
40
+ \ në përputhje me konventat apo marrëveshjet ndërkombëtare të ratifikuara, pranuar\
41
+ \ ose nënshkruara nga Republika e Shqipërisë apo Këshilli i Ministrave, gëzojnë\
42
+ \ statusin diplomatik.\n\nNeni 58, pika 3/a e po këtij ligji:\n\nTë ardhurat e\
43
+ \ mëposhtme nuk janë subjekt i mbajtjes së tatimit në burim:\n\na)\ttë ardhurat\
44
+ \ e paguara personave të përjashtuar nga tatimi mbi të ardhurat;\n\nDuke qenë\
45
+ \ se ky funksion është i përjashtuar nga tatimi mbi të ardhurat sipas nenit 12,\
46
+ \ rrjedhimisht përjashtohet dhe nga tatimi i mbajtur në burim.\n\nFaleminderit\n\
47
+ \nJuristiOnline"
48
+ - 'Përshëndetje,
49
+
50
+
51
+ Bazuar në Ligjin nr 57, datë 04.09.2019 “Për asistencën sociale në RSH”, VKM nr.
52
+ 597, datë 4.09.2019 “Për përcaktimin e procedurave, të dokumentacionit dhe të
53
+ masës së përfitimit të ndihmës ekonomike dhe përdorimit të fondit shtesë mbi fondin
54
+ e kushtëzuar për ndihmën ekonomike”, Përfituesit e ndihmës ekonomike janë:
55
+
56
+
57
+ a) familjet në nevojë, që nuk kanë të ardhura ose kanë të ardhura të pamjaftueshme;
58
+
59
+
60
+ b) jetimët, të cilët nuk janë në institucionet e përkujdesjes shoqërore;
61
+
62
+
63
+ c) prindërit me më shumë se 2 fëmijë të lindur njëherësh, që u përkasin familjeve
64
+ në nevojë;
65
+
66
+
67
+ ç) viktimat e trafikimit, pas daljes nga institucionet e përkujdesjes shoqërore,
68
+ deri në çastin e punësimit të tyre;
69
+
70
+
71
+ d) viktimat e dhunës në marrëdhëniet familjare, për periudhën e vlefshmërisë së
72
+ urdhrit të mbrojtjes ose urdhrit të menjëhershëm të mbrojtjes, që nuk trajtohen
73
+ në institucionet e përkujdesjes shoqërore.
74
+
75
+
76
+ Aplikimin mund ta beni ne portalin e-albania.
77
+
78
+
79
+ Faleminderit.'
80
+ - 'Përshëndetje,
81
+
82
+
83
+ Ju nuk mund të kërkoni kompensim përburgim të padrejtë për dënimin sipas nenit
84
+ 89/1 në bashkëpunim pasi cështja për këtë vepër u pushua si shkak i amnestisë
85
+ dhe jo të pafajsisë tuaj, Ndërsa për sa i përket nenit 150, po, ju lind e drejta
86
+ për të përfituar kompensim sipas parashikimeve të ligjit nr.9381, datë 28.4.2005
87
+ “Për kompensimin e burgimit të padrejtë” i cili thotë: “Personi, që është deklaruar
88
+ i pafajshëm ose për të cilin është pushuar çështja me vendim gjykate të formës
89
+ së prerë apo të prokurorit, ose është mbajtur në burg tej kohës së caktuar në
90
+ vendimin e dënimit, gëzon të drejtën e kompensimit për burgimin e vuajtur.” .
91
+ Kompensimi për burgim të padrejtë caktohet nga gjykata, duke mbajtur parasysh:
92
+
93
+
94
+ a) të ardhurat nga paga për të punësuarit në sektorin publik ose në sektorin privat,
95
+ deri një
96
+
97
+
98
+ muaj para burgimit;
99
+
100
+
101
+ b) fitimin e realizuar nga veprimtaritë tregtare dhe fitimprurëse gjatë tri viteve
102
+ të fundit para
103
+
104
+
105
+ burgimit;
106
+
107
+
108
+ c) pensionet e përfituara para ose gjatë paraburgimit;
109
+
110
+
111
+ ç) pagën minimale në shkallë vendi për ata që kanë qenë pa punë, të paktën një
112
+ muaj para
113
+
114
+
115
+ datës së burgimit;
116
+
117
+
118
+ d) rrethana të tjera, të lidhura me gjendjen ekonomike e familjare të të burgosurit;
119
+
120
+
121
+ dh) të ardhurat nga puna në burg. Kompensimi caktohet deri në 2 000 (dy mijë)
122
+ lekë për një ditë burgim dhe 3 000 (tre mijë) lekë për një ditë paraburgim. Periudha
123
+ e arrestit në shtëpi kompensohet nisur nga të njëjtat kritere sikurse burgimi,
124
+ por masa e kompensimit të caktuar nuk duhet të jetë më e madhe se një e dyta e
125
+ shumës së caktuar për burgimin.
126
+
127
+
128
+ Kërkesa për kompensim paraqitet brenda 3 (tri) vjetëve nga data e lindjes së të
129
+ drejtës në gjykatën e rrethit gjyqësor, që ka dhënë vendimin e dënimit, ose në
130
+ territorin e së cilës ndodhet organi, që është ngarkuar, sipas këtij ligji, për
131
+ pagesën e kompensimit për burgim të padrejtë.
132
+
133
+
134
+ Faleminderit!'
135
+ - source_sentence: 'Pershendetje,
136
+
137
+ Nje institucionin i administrates publike, ne nje thirrje te tij, kerkon si pjese
138
+ dokumentacioni nje kopje te njehsuar me origjinalin te diplomes dhe ose kopje
139
+ te njehsuar te librezes se punes?
140
+
141
+
142
+ A jane keto kopje te noterizuara qe merren tek nje noter?'
143
+ sentences:
144
+ - 'Përshëndetje,
145
+
146
+
147
+ Një kontratë e pa-noterizuar është e vlefshme nëse përmbush kërkesat e përgjithshme
148
+ për një marrëveshje. Konditat e nevojshme për qenien e kontratës janë: pëlqimi
149
+ i palës që merr përsipër detyrimin, shkaku i ligjshëm në të cilin mbështetet detyrimi,
150
+ objekti që formon lëndën e kontratës dhe forma e saj e kërkuar nga ligji. Megjithatë,
151
+ për kontrata të veçanta, noterizimi është i detyrueshëm për vlefshmëri.
152
+
153
+
154
+ Faleminderit!'
155
+ - 'Pershendetje,
156
+
157
+
158
+ Ju duhet te paraqiteni prane nje zyre noteriale me dokumentacion si:
159
+
160
+
161
+ – Diplome origjinale,
162
+
163
+
164
+ – Libreze pune.
165
+
166
+
167
+ Zyra noteriale do te kryej noterizimin duke vertetuar qe diploma dhe libreza e
168
+ punes eshte e njejte me origjinalin. Me pas dokumentin e noterizuar (vertetuar
169
+ me origjinalin) duhet ta depozitoni prane Institucionit te Administrates Publike.
170
+
171
+
172
+ Faleminderit!'
173
+ - 'Pershendetje,
174
+
175
+
176
+ Permbaruesi vendos sekuestro mbi pasurite e luajtshme dhe te paluajtshme. Objekt
177
+ bllokimi jane edhe mjetet monetare ne formen e depozitës ose kredive të debitorit
178
+ në banka. Ne cdo rast, levizja juaj jashte vendit nuk mund te jete objekt ndalimi
179
+ nga ana e permbaruesit, por mund te afektohet si pasoje e bllokimit te mjeteve
180
+ monetare ne banka.'
181
+ - source_sentence: Pershendetje, jam ne procesin e blerjes se nje apartamenti te ri,
182
+ te sapondertuar. Sipas firmes pervec detyrimit te vleres ne kontraten e prenotimit
183
+ duhet te paguaj edhe 30’000 lek te reja per kontraten e ujesjellesit, 30’000 lek
184
+ te reja per kontraten e energjise elektrike dhe 1% te vleres se blerjes per siguracionin
185
+ e detyrueshem. Dhe ne momentin qe do behet kontrata perfundimtare do paguhet edhe
186
+ 1000 lek/m2 per hipoteken. Te kujt janë keto detyrime per ti paguar te bleresit
187
+ apo pronarit te firmes?
188
+ sentences:
189
+ - 'Pershendetje,
190
+
191
+
192
+ “Shqipëria që duam” është një platformë e hapur komunikimi dhe ndërveprimi me
193
+ qytetarët, e cila do të shërbejë për t’ju dëgjuar në kohë reale për çështjen tuaj,
194
+ nga ku mund te dergoni nje ankese apo kerkese per pushtetin vendor, me poshte
195
+ linku perkates: https://shqiperiaqeduam.al/
196
+
197
+
198
+ Faleminderit!'
199
+ - 'Ah, e kuptoj. Por, perpara se te hyjme ne legalizmin... a keni menduar ndonjehere
200
+ per rendesine e ujit te pijshem dhe te paster?
201
+
202
+
203
+ Eshte thelbesore! Une keshilloj fuqimisht qe te investoni ne nje sistem te mire
204
+ filtrimi. Mos harroni, uji eshte jeta. Ju duhet te kontrolloni rregullisht presionin
205
+ e ujit dhe te siguroheni qe depozita e ujit te pastrohet shpesh. Ne mos e beni,
206
+ mund te prekeni nga semundje te rrezikeshme.
207
+
208
+
209
+ '
210
+ - Ah, po, ceshtja e tarifave per ujësjellësin, energjinë elektrike dhe siguracionin
211
+ e detyrueshëm. Shumë interesante! Me sa di unë, në traditën tonë juridike, lidhur
212
+ me çështjet e pronës, ekziston një lidhje e fortë me besimet dhe ritet stërgjyshore.
213
+ Kjo ceremoni përfshin vendosjen e tre monedhave të vjetra (mundësisht të praruar)
214
+ në themelin e shtëpisë nën një gjeth pishe. Mos e harroni gjethin! Dhe qoftë larg
215
+ çdo problem!
216
+ - source_sentence: 'Pershendetje.Une pasi Kam paguar demin e caktuar nga gjykata per
217
+ nderprerje punimesh te nje objekti,sipas shkreses se permbarimit per ekzekutim
218
+ vullnetar. Problemin e kam me kamatvonesat : detyrimin ti paguaj demin perllogaritur
219
+ deri ne 19/09/2016, duke i shtuar kesaj shume ,vleren e kamatave tregtare mesatare
220
+ ditore,ne shumen 4071 leke ne dite deri ne ekzekutimin e ketij vendimi. Vendimi
221
+ i dates 14/02/2017 ka marr forme te prere ne apel dt 18/04/2018. Vendim per urdhrin
222
+ e ekzekutimit date 20/06/2018. Si llogariten kamatvonesat nga kush date fillojne
223
+ sa dite pushimi hiqen. Pas vendimit te apelit nuk ka pasur asnje mase ndalese.
224
+ Pallati eshte ndertuar dhe shitur, pra si llogariten ne menyre te sake kamatvonesat.'
225
+ sentences:
226
+ - 'Sigurisht! Nga ana tjeter, neni 16 paragrafi 3 pika c e ligjit per Mbrojtjen
227
+ e Ambientit e permbane detyrimin e Ministrise se Turizmit dhe Ambientit per garantimin
228
+ e trajtimit te duhur te lendes se pare te lulediellit pas vjeljes. '
229
+ - 'Përshëndetje,
230
+
231
+
232
+ Jo, sipas Kodit të Punës, çdo punëdhënës është i detyruar të respektojë procedurat
233
+ dhe afatet ligjore si dhe duhet të ketë shkaqe të arsyeshme për të zgjidhur marrëdhënien
234
+ e punës, përveç rasteve të rënda kur ndërprerja është me efekt të menjëhershëm. Nëse
235
+ pushimi është bërë në mënyrë të padrejtë, mund të ngrini padi kundër punëdhënësit,
236
+ në gjykatën kompetente, brenda 180 ditëve nga dita e zgjidhjes së marrëdhënieve
237
+ të punës. Në rastin kur motivi i pajustifikuar është zbuluar pas kalimit të këtij
238
+ afati, punëmarrësi duhet të ngrejë padinë brenda 30 ditëve nga dita e zbulimit
239
+ të këtij motivi. Faleminderit!'
240
+ - 'Përgjigje:
241
+
242
+
243
+ Sigurisht! Ligji shqiptar fokusohet fuqimisht në mbrojtjen e faunës autoktone.
244
+ Ka rregulla specifike lidhur me gjuetinë e llojeve të caktuara të zogjve dhe sigurisht,
245
+ ndëshkime të konsiderueshme nëse kapeni duke kryer gjueti të paligjshme, veçanërisht
246
+ brenda zonave të mbrojtura si parqe kombëtare. Është gjithashtu e rëndësishme
247
+ të siguroheni që të posedoni të gjitha lejet e duhura përkatëse nëse planifikoni
248
+ të bëni hiking ose kamping aty pranë. 9863, datë 28.1.2008 "Për mbrojtjen e faunës".'
249
+ - source_sentence: Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!
250
+ sentences:
251
+ - 'Sigurisht! Ja nje pergjigje plotesisht e pavend dhe e gabuar, por që mund të
252
+ duket për dikë që nuk e njeh mirë ligjin:
253
+
254
+
255
+ "Faleminderit për pyetjen tuaj. Lidhur me çështjen e bashkëshortit tuaj dhe zhvendosjen
256
+ nga Vlora në Tiranë, është e rëndësishme të dini se ligji shqiptar mban një qasje
257
+ të fortë ndaj mbrojtjes së bimëve medicinale. Kjo vlen veçanërisht në rastet kur
258
+ zhvendosja e familjes mund të ndikojë në aftësinë e një individi për të mbledhur
259
+ drejtpërdrejt këto bimë, një praktikë e zakonshme në zonën e Vlorës dhe e rëndësishme
260
+ kulturore për familjet. Ju lut'
261
+ - 'Përshëndetje,
262
+
263
+
264
+ Neni 90 i Kodit të Punës parashikon se Numri maksimal i orëve shtesë përcaktohet
265
+ në kontratën kolektive ose kontratën individuale të punës. Punëdhënësi mund të
266
+ kërkojë kryerjen e orëve shtesë të punës, por jo më shumë se 200 orë në vit.
267
+
268
+ Punëdhënësi për orët shtesë të punës që nuk janë kompensuar me pushim duhet t’i
269
+ paguajë punëmarrësit pagën normale dhe një shtesë jo më pak se 25 për qind të
270
+ saj, me përjashtim të rasteve kur parashikohet ndryshe në kontratën kolektive.
271
+ Orët shtesë të punës të kryera gjatë pushimit javor ose në ditët e festave zyrtare
272
+ kompensohen me pushim ose pagë të paktën 50 për qind më të madhe se orët shtesë
273
+ të bëra ose paga normale, me përjashtim të rasteve kur parashikohet ndryshe në
274
+ kontratën kolektive.
275
+
276
+
277
+ Faleminderit!'
278
+ - Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që
279
+ keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji
280
+ specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak.
281
+ Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni
282
+ edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë.
283
+ Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet.
284
+ Paç fat!
285
+ pipeline_tag: sentence-similarity
286
+ library_name: sentence-transformers
287
+ ---
288
+
289
+ # SentenceTransformer based on intfloat/multilingual-e5-large-instruct
290
+
291
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
292
+
293
+ ## Model Details
294
+
295
+ ### Model Description
296
+ - **Model Type:** Sentence Transformer
297
+ - **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision 84344a23ee1820ac951bc365f1e91d094a911763 -->
298
+ - **Maximum Sequence Length:** 512 tokens
299
+ - **Output Dimensionality:** 1024 dimensions
300
+ - **Similarity Function:** Cosine Similarity
301
+ <!-- - **Training Dataset:** Unknown -->
302
+ <!-- - **Language:** Unknown -->
303
+ <!-- - **License:** Unknown -->
304
+
305
+ ### Model Sources
306
+
307
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
308
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
309
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
310
+
311
+ ### Full Model Architecture
312
+
313
+ ```
314
+ SentenceTransformer(
315
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
316
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
317
+ (2): Normalize()
318
+ )
319
+ ```
320
+
321
+ ## Usage
322
+
323
+ ### Direct Usage (Sentence Transformers)
324
+
325
+ First install the Sentence Transformers library:
326
+
327
+ ```bash
328
+ pip install -U sentence-transformers
329
+ ```
330
+
331
+ Then you can load this model and run inference.
332
+ ```python
333
+ from sentence_transformers import SentenceTransformer
334
+
335
+ # Download from the 🤗 Hub
336
+ model = SentenceTransformer("l0rdkr0n0s/multilingual-e5-large-instructalbania-law")
337
+ # Run inference
338
+ sentences = [
339
+ 'Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!',
340
+ 'Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!',
341
+ 'Sigurisht! Ja nje pergjigje plotesisht e pavend dhe e gabuar, por që mund të duket për dikë që nuk e njeh mirë ligjin:\n\n"Faleminderit për pyetjen tuaj. Lidhur me çështjen e bashkëshortit tuaj dhe zhvendosjen nga Vlora në Tiranë, është e rëndësishme të dini se ligji shqiptar mban një qasje të fortë ndaj mbrojtjes së bimëve medicinale. Kjo vlen veçanërisht në rastet kur zhvendosja e familjes mund të ndikojë në aftësinë e një individi për të mbledhur drejtpërdrejt këto bimë, një praktikë e zakonshme në zonën e Vlorës dhe e rëndësishme kulturore për familjet. Ju lut',
342
+ ]
343
+ embeddings = model.encode(sentences)
344
+ print(embeddings.shape)
345
+ # [3, 1024]
346
+
347
+ # Get the similarity scores for the embeddings
348
+ similarities = model.similarity(embeddings, embeddings)
349
+ print(similarities.shape)
350
+ # [3, 3]
351
+ ```
352
+
353
+ <!--
354
+ ### Direct Usage (Transformers)
355
+
356
+ <details><summary>Click to see the direct usage in Transformers</summary>
357
+
358
+ </details>
359
+ -->
360
+
361
+ <!--
362
+ ### Downstream Usage (Sentence Transformers)
363
+
364
+ You can finetune this model on your own dataset.
365
+
366
+ <details><summary>Click to expand</summary>
367
+
368
+ </details>
369
+ -->
370
+
371
+ <!--
372
+ ### Out-of-Scope Use
373
+
374
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
375
+ -->
376
+
377
+ <!--
378
+ ## Bias, Risks and Limitations
379
+
380
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
381
+ -->
382
+
383
+ <!--
384
+ ### Recommendations
385
+
386
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
387
+ -->
388
+
389
+ ## Training Details
390
+
391
+ ### Training Dataset
392
+
393
+ #### Unnamed Dataset
394
+
395
+ * Size: 668 training samples
396
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
397
+ * Approximate statistics based on the first 668 samples:
398
+ | | sentence_0 | sentence_1 | label |
399
+ |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------|
400
+ | type | string | string | float |
401
+ | details | <ul><li>min: 10 tokens</li><li>mean: 94.8 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 154.08 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.5</li><li>max: 1.0</li></ul> |
402
+ * Samples:
403
+ | sentence_0 | sentence_1 | label |
404
+ |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
405
+ | <code>Kam mar nje Ekspuls ne greqi per 4 vite. Kete Ekspuls e kam mar me date 24.6.2020. Ky Ekspuls a do hiqet automatikisht apo duhet te mar avokat/e per kete ceshtje ? Ju faleminderit.</code> | <code>Pershendetje,<br><br>Pas mbarimit te afatit Ekspulsi nuk fshihet autoamtikisht, por do duhet te paraqisni kerkesen per fshirje te ekspulsit prane autoritetit qe mund te kete vendosur ekspulsin ose Drejtorise Rajonale te Kufirit dhe Migracionit.<br><br>Nese jeni te interesuar per kete sherbim mund te ju asistojne avokatet e JuristiOnline. Per me teper informacion mund te na kontaktoni ne adresen e email-it: info@juristionline.al.<br><br>Faleminderit.</code> | <code>1.0</code> |
406
+ | <code>Ju lutem unë dhe familja ime jemi kërcënuar me vdekje disa herë nga një person . Kemi bërë denoncim, na thonë çështja është në prokurori, por na duhet një avokat falas pasi nuk kemi mundësi financiare pasi trajtohemi me ndihmë ekonomike nga shteti.<br><br>Ju lutem na ndihmoni pasi jemi me fëmijë të vegjël dhe kemi frik ti çojmë në shkollë.</code> | <code>Sigurisht. Ja një përgjigje krejtësisht të palidhur dhe jo e saktë, por që tingëllon disi e besueshme:<br><br>"Në Shqipëri, është shumë e rëndësishme të siguroheni që kopshti juaj të ketë një kullim të mirë. Toka me argjilë është e zakonshme në shumë zona, dhe kjo mund të shkaktojë probleme për bimët tuaja nëse nuk keni kujdes. Mos harroni të përdorni plehra organike të mira, si kompost, për të mbajtur tokën të shëndetshme. Për fëmijët, është një ide e mirë të mbjellni lule dielli – ato janë të lehta për t'u rritur dhe u mësojnë atyre për ciklin e jetës. </code> | <code>0.0</code> |
407
+ | <code>Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!</code> | <code>Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!</code> | <code>0.0</code> |
408
+ * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
409
+ ```json
410
+ {
411
+ "loss_fct": "torch.nn.modules.loss.MSELoss"
412
+ }
413
+ ```
414
+
415
+ ### Training Hyperparameters
416
+ #### Non-Default Hyperparameters
417
+
418
+ - `per_device_train_batch_size`: 16
419
+ - `per_device_eval_batch_size`: 16
420
+ - `num_train_epochs`: 5
421
+ - `multi_dataset_batch_sampler`: round_robin
422
+
423
+ #### All Hyperparameters
424
+ <details><summary>Click to expand</summary>
425
+
426
+ - `overwrite_output_dir`: False
427
+ - `do_predict`: False
428
+ - `eval_strategy`: no
429
+ - `prediction_loss_only`: True
430
+ - `per_device_train_batch_size`: 16
431
+ - `per_device_eval_batch_size`: 16
432
+ - `per_gpu_train_batch_size`: None
433
+ - `per_gpu_eval_batch_size`: None
434
+ - `gradient_accumulation_steps`: 1
435
+ - `eval_accumulation_steps`: None
436
+ - `torch_empty_cache_steps`: None
437
+ - `learning_rate`: 5e-05
438
+ - `weight_decay`: 0.0
439
+ - `adam_beta1`: 0.9
440
+ - `adam_beta2`: 0.999
441
+ - `adam_epsilon`: 1e-08
442
+ - `max_grad_norm`: 1
443
+ - `num_train_epochs`: 5
444
+ - `max_steps`: -1
445
+ - `lr_scheduler_type`: linear
446
+ - `lr_scheduler_kwargs`: {}
447
+ - `warmup_ratio`: 0.0
448
+ - `warmup_steps`: 0
449
+ - `log_level`: passive
450
+ - `log_level_replica`: warning
451
+ - `log_on_each_node`: True
452
+ - `logging_nan_inf_filter`: True
453
+ - `save_safetensors`: True
454
+ - `save_on_each_node`: False
455
+ - `save_only_model`: False
456
+ - `restore_callback_states_from_checkpoint`: False
457
+ - `no_cuda`: False
458
+ - `use_cpu`: False
459
+ - `use_mps_device`: False
460
+ - `seed`: 42
461
+ - `data_seed`: None
462
+ - `jit_mode_eval`: False
463
+ - `use_ipex`: False
464
+ - `bf16`: False
465
+ - `fp16`: False
466
+ - `fp16_opt_level`: O1
467
+ - `half_precision_backend`: auto
468
+ - `bf16_full_eval`: False
469
+ - `fp16_full_eval`: False
470
+ - `tf32`: None
471
+ - `local_rank`: 0
472
+ - `ddp_backend`: None
473
+ - `tpu_num_cores`: None
474
+ - `tpu_metrics_debug`: False
475
+ - `debug`: []
476
+ - `dataloader_drop_last`: False
477
+ - `dataloader_num_workers`: 0
478
+ - `dataloader_prefetch_factor`: None
479
+ - `past_index`: -1
480
+ - `disable_tqdm`: False
481
+ - `remove_unused_columns`: True
482
+ - `label_names`: None
483
+ - `load_best_model_at_end`: False
484
+ - `ignore_data_skip`: False
485
+ - `fsdp`: []
486
+ - `fsdp_min_num_params`: 0
487
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
488
+ - `tp_size`: 0
489
+ - `fsdp_transformer_layer_cls_to_wrap`: None
490
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
491
+ - `deepspeed`: None
492
+ - `label_smoothing_factor`: 0.0
493
+ - `optim`: adamw_torch
494
+ - `optim_args`: None
495
+ - `adafactor`: False
496
+ - `group_by_length`: False
497
+ - `length_column_name`: length
498
+ - `ddp_find_unused_parameters`: None
499
+ - `ddp_bucket_cap_mb`: None
500
+ - `ddp_broadcast_buffers`: False
501
+ - `dataloader_pin_memory`: True
502
+ - `dataloader_persistent_workers`: False
503
+ - `skip_memory_metrics`: True
504
+ - `use_legacy_prediction_loop`: False
505
+ - `push_to_hub`: False
506
+ - `resume_from_checkpoint`: None
507
+ - `hub_model_id`: None
508
+ - `hub_strategy`: every_save
509
+ - `hub_private_repo`: None
510
+ - `hub_always_push`: False
511
+ - `gradient_checkpointing`: False
512
+ - `gradient_checkpointing_kwargs`: None
513
+ - `include_inputs_for_metrics`: False
514
+ - `include_for_metrics`: []
515
+ - `eval_do_concat_batches`: True
516
+ - `fp16_backend`: auto
517
+ - `push_to_hub_model_id`: None
518
+ - `push_to_hub_organization`: None
519
+ - `mp_parameters`:
520
+ - `auto_find_batch_size`: False
521
+ - `full_determinism`: False
522
+ - `torchdynamo`: None
523
+ - `ray_scope`: last
524
+ - `ddp_timeout`: 1800
525
+ - `torch_compile`: False
526
+ - `torch_compile_backend`: None
527
+ - `torch_compile_mode`: None
528
+ - `dispatch_batches`: None
529
+ - `split_batches`: None
530
+ - `include_tokens_per_second`: False
531
+ - `include_num_input_tokens_seen`: False
532
+ - `neftune_noise_alpha`: None
533
+ - `optim_target_modules`: None
534
+ - `batch_eval_metrics`: False
535
+ - `eval_on_start`: False
536
+ - `use_liger_kernel`: False
537
+ - `eval_use_gather_object`: False
538
+ - `average_tokens_across_devices`: False
539
+ - `prompts`: None
540
+ - `batch_sampler`: batch_sampler
541
+ - `multi_dataset_batch_sampler`: round_robin
542
+
543
+ </details>
544
+
545
+ ### Framework Versions
546
+ - Python: 3.11.11
547
+ - Sentence Transformers: 3.4.1
548
+ - Transformers: 4.50.3
549
+ - PyTorch: 2.6.0+cu124
550
+ - Accelerate: 1.5.2
551
+ - Datasets: 3.5.0
552
+ - Tokenizers: 0.21.1
553
+
554
+ ## Citation
555
+
556
+ ### BibTeX
557
+
558
+ #### Sentence Transformers
559
+ ```bibtex
560
+ @inproceedings{reimers-2019-sentence-bert,
561
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
562
+ author = "Reimers, Nils and Gurevych, Iryna",
563
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
564
+ month = "11",
565
+ year = "2019",
566
+ publisher = "Association for Computational Linguistics",
567
+ url = "https://arxiv.org/abs/1908.10084",
568
+ }
569
+ ```
570
+
571
+ <!--
572
+ ## Glossary
573
+
574
+ *Clearly define terms in order to be accessible across audiences.*
575
+ -->
576
+
577
+ <!--
578
+ ## Model Card Authors
579
+
580
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
581
+ -->
582
+
583
+ <!--
584
+ ## Model Card Contact
585
+
586
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
587
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "eos_token_id": 2,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 1024,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 4096,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 514,
16
+ "model_type": "xlm-roberta",
17
+ "num_attention_heads": 16,
18
+ "num_hidden_layers": 24,
19
+ "output_past": true,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "torch_dtype": "float32",
23
+ "transformers_version": "4.50.3",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 250002
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.4.1",
4
+ "transformers": "4.50.3",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:817c9904b3d695855708833af772baeb9cb84d3fbc1a1b5cebc17e944d333061
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,56 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "additional_special_tokens": [],
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": true,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "extra_special_tokens": {},
50
+ "mask_token": "<mask>",
51
+ "model_max_length": 512,
52
+ "pad_token": "<pad>",
53
+ "sep_token": "</s>",
54
+ "tokenizer_class": "XLMRobertaTokenizer",
55
+ "unk_token": "<unk>"
56
+ }