metadata
language:
- tr
license: mit
tags:
- generated_from_trainer
metrics:
- precision
- recall
- accuracy
- f1
widget:
- text: >-
İngiltere'de düzenlenen Avrupa Tekvando ve Para Tekvando Şampiyonası’nda
millî tekvandocular 5 altın, 2 gümüş ve 4 bronz olmak üzere 11, millî para
tekvandocular ise 4 altın, 3 gümüş ve 1 bronz olmak üzere 8 madalya
kazanarak takım halinde Avrupa şampiyonu oldu.
- text: >-
Füme somon dedik ama aslında lox salamuralanmış somon anlamına geliyor,
füme etme opsiyonel. Lox bagel, 1930'larda Eggs Benedict furyasında New
Yorklu Yahudi cemaati tarafından koşer bir alternatif olarak çıkan bir
lezzet. Günümüzde benim hangover yüreğim dâhil dünyanın birçok yerinde
enfes bir kahvaltı sandviçi.
- text: >-
Türkiye'de son aylarda sıklıkla tartışılan konut satışı karşılığında
yabancılara vatandaşlık verilmesi konusunu beyin göçü kapsamında ele almak
mümkün. Daha önce 250 bin dolar olan vatandaşlık bedeli yükselen tepkiler
üzerine 400 bin dolara çıkarılmıştı. Türkiye'den göç eden iyi eğitimli
kişilerin , gittikleri ülkelerde 250 bin dolar tutarında yabancı yatırıma
denk olduğu göz önüne alındığında nitelikli insan gücünün yabancılara
konut karşılığında satılan vatandaşlık bedelin eş olduğunu görüyoruz. Yurt
dışına giden her bir vatandaşın yüksek teknolojili katma değer üreten
sektörlere yapacağı katkılar göz önünde bulundurulduğunda bu açığın inşaat
sektörüyle kapatıldığını da görüyoruz. Beyin göçü konusunda sadece
ekonomik perspektiften bakıldığında bile kısa vadeli döviz kaynağı
yaratmak için kullanılan vatandaşlık satışı yerine beyin göçünü önleyecek
önlemler alınmasının ülkemize çok daha faydalı olacağı sonucunu
çıkarıyoruz.
- text: >-
Türkiye’de resmî verilere göre, 15 ve daha yukarı yaştaki kişilerde mevsim
etkisinden arındırılmış işsiz sayısı, bu yılın ilk çeyreğinde bir önceki
çeyreğe göre 50 bin kişi artarak 3 milyon 845 bin kişi oldu. Mevsim
etkisinden arındırılmış işsizlik oranı ise 0,1 puanlık artışla %11,4
seviyesinde gerçekleşti. İşsizlik oranı, ilk çeyrekte geçen yılın aynı
çeyreğine göre 1,7 puan azaldı.
- text: >-
Boeing’in insansız uzay aracı Starliner, birtakım sorunlara rağmen
Uluslararası Uzay İstasyonuna (ISS) ulaşarak ilk kez başarılı bir şekilde
kenetlendi. Aracın ISS’te beş gün kalmasını takiben sorunsuz bir şekilde
New Mexico’ya inmesi halinde Boeing, sonbaharda astronotları yörüngeye
göndermek için Starliner’ı kullanabilir.
Neden önemli? NASA’nın personal aracı üretmeyi durdurmasından kaynaklı
olarak görevli astronotlar ve kozmonotlar, ISS’te Rusya’nın ürettiği uzay
araçları ile taşınıyordu. Starliner’ın kendini kanıtlaması ise bu konuda
Rusya’ya olan bağımlılığın potansiyel olarak ortadan kalkabileceği
anlamına geliyor.
base_model: dbmdz/bert-base-turkish-cased
model-index:
- name: berturk-keyword-discriminator
results: []
berturk-keyword-discriminator
This model is a fine-tuned version of dbmdz/bert-base-turkish-cased on an unknown dataset. It achieves the following results on the evaluation set:
- Loss: 0.4196
- Precision: 0.6729
- Recall: 0.6904
- Accuracy: 0.9163
- F1: 0.6815
- Ent/precision: 0.6776
- Ent/accuracy: 0.7365
- Ent/f1: 0.7058
- Con/precision: 0.6640
- Con/accuracy: 0.6151
- Con/f1: 0.6386
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 8
- mixed_precision_training: Native AMP
Training results
Training Loss | Epoch | Step | Validation Loss | Precision | Recall | Accuracy | F1 | Ent/precision | Ent/accuracy | Ent/f1 | Con/precision | Con/accuracy | Con/f1 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0.1899 | 1.0 | 1875 | 0.1927 | 0.6330 | 0.6682 | 0.9163 | 0.6502 | 0.6283 | 0.7398 | 0.6795 | 0.6438 | 0.5513 | 0.5940 |
0.137 | 2.0 | 3750 | 0.1988 | 0.6405 | 0.6959 | 0.9160 | 0.6671 | 0.6461 | 0.7475 | 0.6931 | 0.6297 | 0.6116 | 0.6205 |
0.101 | 3.0 | 5625 | 0.2375 | 0.6494 | 0.7188 | 0.9173 | 0.6824 | 0.6497 | 0.7743 | 0.7066 | 0.6488 | 0.6281 | 0.6383 |
0.0767 | 4.0 | 7500 | 0.2699 | 0.6533 | 0.7188 | 0.9154 | 0.6845 | 0.6575 | 0.7741 | 0.7111 | 0.6449 | 0.6285 | 0.6366 |
0.057 | 5.0 | 9375 | 0.3188 | 0.6696 | 0.6914 | 0.9163 | 0.6803 | 0.6790 | 0.7405 | 0.7084 | 0.6518 | 0.6112 | 0.6308 |
0.0423 | 6.0 | 11250 | 0.3646 | 0.6773 | 0.6846 | 0.9171 | 0.6809 | 0.6787 | 0.7388 | 0.7075 | 0.6746 | 0.5959 | 0.6328 |
0.0339 | 7.0 | 13125 | 0.4007 | 0.6711 | 0.6816 | 0.9151 | 0.6763 | 0.6782 | 0.7283 | 0.7023 | 0.6575 | 0.6055 | 0.6304 |
0.0282 | 8.0 | 15000 | 0.4196 | 0.6729 | 0.6904 | 0.9163 | 0.6815 | 0.6776 | 0.7365 | 0.7058 | 0.6640 | 0.6151 | 0.6386 |
Framework versions
- Transformers 4.19.2
- Pytorch 1.11.0+cu113
- Datasets 2.2.2
- Tokenizers 0.12.1