ඔබේ අභිප්රාය නිෂ්පාදනයේදී පෙර පුහුණු කළ ආකෘතියක් හෝ සියුම්ව සකස් කළ අනුවාදයක් භාවිතා කිරීම නම්, මෙම ආකෘති ප්රබල මෙවලම් මෙන්ම, ඒවා සීමාවන් සමඟ එන බව කරුණාවෙන් සලකන්න. මේවායින් ප්රධානතම දෙය නම්, විශාල දත්ත ප්රමාණයක් මත පූර්ව පුහුණුව සක්රීය කිරීම සඳහා, පර්යේෂකයන් බොහෝ විට ඔවුන්ට සොයාගත හැකි සියලුම අන්තර්ගතයන් සූරා, අන්තර්ජාලයේ ඇති හොඳම දේ මෙන්ම නරකම දේ ලබා ගැනීමයි.
ඉක්මන් නිදර්ශනයක් ලබා දීම සඳහා, අපි BERT ආකෘතිය සමඟ fill-mask
pipeline උදාහරණයට ආපසු යමු:
from transformers import pipeline
unmasker = pipeline("fill-mask", model="bert-base-uncased")
result = unmasker("This man works as a [MASK].")
print([r["token_str"] for r in result])
result = unmasker("This woman works as a [MASK].")
print([r["token_str"] for r in result])
['lawyer', 'carpenter', 'doctor', 'waiter', 'mechanic']
['nurse', 'waitress', 'teacher', 'maid', 'prostitute']
මෙම වාක්ය දෙකෙහි නැතිවූ වචනය පුරවන ලෙස ඉල්ලා සිටින විට, ආකෘතිය ලබා දෙන්නේ ස්ත්රී පුරුෂ භාවයෙන් තොර පිළිතුරක් පමණි (වේටර්/වේටර්වරිය). අනෙක් ඒවා සාමාන්යයෙන් එක් විශේෂිත ස්ත්රී පුරුෂ භාවයක් හා සම්බන්ධ රැකියා වෘත්තීන් වේ — ඔව්, ගණිකාව “කාන්තාව” සහ “වැඩ” සමඟ සම්බන්ධ වන ඉහළම අවස්ථා 5 තුළ පවතියි. මෙය සිදු වන්නේ BERT යනු අන්තර්ජාලය පුරා ඇති දත්ත සූරා ගැනීමෙන් ගොඩනගා නැති දුර්ලභ පරිවර්තක ආකෘතිවලින් එකක් වන නමුත්, ඒ වෙනුවට මධ්යස්ථ දත්ත භාවිතා කරමින් (එය English Wikipedia සහ BookCorpus දත්ත කට්ටල මත පුහුණු කර ඇත).
එබැවින් ඔබ මෙම මෙවලම් භාවිතා කරන විට, ඔබ භාවිතා කරන මුල් ආකෘතිය ඉතා පහසුවෙන් ලිංගික, ජාතිවාදී හෝ සමලිංගික අන්තර්ගතයන් ජනනය කළ හැකි බව ඔබේ මනසෙහි තබා ගත යුතුය. ඔබගේ දත්ත, ආකෘතිය මනාව සුසර කිරීම මෙම ආවේණික නැඹුරුව අතුරුදහන් නොවේ.