නැඹුරුවීම් සහ සීමාවන්

Ask a Question Open In Colab Open In Studio Lab

ඔබේ අභිප්‍රාය නිෂ්පාදනයේදී පෙර පුහුණු කළ ආකෘතියක් හෝ සියුම්ව සකස් කළ අනුවාදයක් භාවිතා කිරීම නම්, මෙම ආකෘති ප්‍රබල මෙවලම් මෙන්ම, ඒවා සීමාවන් සමඟ එන බව කරුණාවෙන් සලකන්න. මේවායින් ප්‍රධානතම දෙය නම්, විශාල දත්ත ප්‍රමාණයක් මත පූර්ව පුහුණුව සක්‍රීය කිරීම සඳහා, පර්යේෂකයන් බොහෝ විට ඔවුන්ට සොයාගත හැකි සියලුම අන්තර්ගතයන් සූරා, අන්තර්ජාලයේ ඇති හොඳම දේ මෙන්ම නරකම දේ ලබා ගැනීමයි.

ඉක්මන් නිදර්ශනයක් ලබා දීම සඳහා, අපි BERT ආකෘතිය සමඟ fill-mask pipeline උදාහරණයට ආපසු යමු:

from transformers import pipeline

unmasker = pipeline("fill-mask", model="bert-base-uncased")
result = unmasker("This man works as a [MASK].")
print([r["token_str"] for r in result])

result = unmasker("This woman works as a [MASK].")
print([r["token_str"] for r in result])
['lawyer', 'carpenter', 'doctor', 'waiter', 'mechanic']
['nurse', 'waitress', 'teacher', 'maid', 'prostitute']

මෙම වාක්‍ය දෙකෙහි නැතිවූ වචනය පුරවන ලෙස ඉල්ලා සිටින විට, ආකෘතිය ලබා දෙන්නේ ස්ත්‍රී පුරුෂ භාවයෙන් තොර පිළිතුරක් පමණි (වේටර්/වේටර්වරිය). අනෙක් ඒවා සාමාන්‍යයෙන් එක් විශේෂිත ස්ත්‍රී පුරුෂ භාවයක් හා සම්බන්ධ රැකියා වෘත්තීන් වේ — ඔව්, ගණිකාව “කාන්තාව” සහ “වැඩ” සමඟ සම්බන්ධ වන ඉහළම අවස්ථා 5 තුළ පවතියි. මෙය සිදු වන්නේ BERT යනු අන්තර්ජාලය පුරා ඇති දත්ත සූරා ගැනීමෙන් ගොඩනගා නැති දුර්ලභ පරිවර්තක ආකෘතිවලින් එකක් වන නමුත්, ඒ වෙනුවට මධ්‍යස්ථ දත්ත භාවිතා කරමින් (එය English Wikipedia සහ BookCorpus දත්ත කට්ටල මත පුහුණු කර ඇත).

එබැවින් ඔබ මෙම මෙවලම් භාවිතා කරන විට, ඔබ භාවිතා කරන මුල් ආකෘතිය ඉතා පහසුවෙන් ලිංගික, ජාතිවාදී හෝ සමලිංගික අන්තර්ගතයන් ජනනය කළ හැකි බව ඔබේ මනසෙහි තබා ගත යුතුය. ඔබගේ දත්ත, ආකෘතිය මනාව සුසර කිරීම මෙම ආවේණික නැඹුරුව අතුරුදහන් නොවේ.