පසුගිය මාසයේදී Apple සමාගම විසින් iCloud වෙත upload කරන photos වල ඇති ළමා ලිංගික අපයෝජන අන්තර්ගතයන් හඳුනාගත හැකි තාක්ෂණක් (CSAM detection) හඳුන්වාදීමට සූදානමින් සිටින බව ප්රකාශ කළ අතර, ඇතැම් security experts ලා විසින් මෙම විශේෂාංගය පිළිබඳව අදහස් දක්වමින් කියා සිටියේ, මෙමගින් ඇතැම් රජයන් හට පුරවැසියන්ගේ දත්ත ලබාගැනීමේ හැකියාවක් ඇති බවත්, එය පරිශීලකයන්ගේ පෞද්ගලිකත්වයට තර්ජනයක් බවත්ය.
ඒ සඳහා අදහස් දක්වමින් Apple සමාගම ප්රකාශ කර සිටියේ, මෙම CSAM (Child Sexual Abuse Materia) හඳුනාගැනීමේ ක්රමය මගින් කිසිදු පරිශීලකයෙකුගේ පෞද්ගලිකත්වයට තර්ජනයක් නොවන බවයි.
නමුත්, මේ වනවිට Apple සමාගම විසින් මෙම විශේෂාංගය හඳුන්වාදීම කල්දමා ඇති අතර ඔවුන් සඳහන් කරන්නේ, මෙම විශේෂාංගය පරිශීලකයන් හට හඳුන්වාදීමට පෙර මෙය refine කළයුතු බවත්, ඒ සඳහා අතිරේක කාලයක් ගත වන බවයි.
පරිශීලකයන්, උපදේශක කණ්ඩායම්, පර්යේෂකයන්ගේ සහ අනෙකුත් අයගේ ප්රතිචාර මත පදනම්ව, තීරණාත්මක වැදගත්කමක් ඇති මෙම CSAM හඳුනාගැනීමේ විශේෂාංගය නිකුත් කිරීමට පෙර, ඉදිරි මාස කිහිපය තුළදී එයට තවත් අතිරේක එකතු කිරීම් සිදුකරමින් වැඩිදියුණු කිරීමට ඔවුන් තීරණය කළ බව Apple සමාගම විසින් වැඩිදුරටත් ප්රකාශ කර තිබුණා.
මෙම වසර අවසානයේදී iOS 15, iPadOS 15 සහ macOS Monterey updates වල කොටසක් ලෙස මෙම නව ළමා ආරක්ෂණ විශේෂාංග හඳුන්වාදීමට Apple සමාගම අපේක්ෂා කර තිබුණත්, මෙම විශේෂාංගය හඳුන්වාදීම කල් දැමීමෙන් පසුව එය එළිදැක්වීමට අදහස් කරන්නේ කවදාද යන්න පිළිබඳව තවමත් වාර්තා වන්නේ නොමැති වෙනවා.
මේ පිළිබඳව වැඩිදුර විස්තර දැනගැනීම සඳහා 9to5mac වෙබ් අඩවිය, macrumors වෙබ් අඩවිය සහ The Times of India වෙබ් අඩවිය භාවිතා කළ හැක.