
Thorn ، غير انتفاعي كه براي مقابله با استثمار جنسي كودكان ، فناوري ايجاد مي كند ، روز چهارشنبه ابزاري را براي كمك به شركت هاي كوچك و متوسط در يافتن ، حذف و گزارش مواد سوء استفاده جنسي از كودكان راه اندازي كرد. اين ابزار با نام Safer براي شركت هايي طراحي شده است كه فاقد منابع براي ساختن سيستم هاي خود.وي گفت: "براي از بين بردن تجارت اين مواد و متوقف كردن تجديد نظر در كودكان در اين تصاوير و فيلم ها ، بايد پوشش پتو از شركت هاي فناوري داشته باشيد,"گفت جولي كوردووا, مديرعامل Thorn, كه توسط بازيگر و سرمايه گذار اشتون كوچر تأسيس شد. كوردووا خاطرنشان كرد كه در حالي كه سيستم عامل هاي بزرگي مانند فيس بوك هستند, YouTube و Twitter كارمندان و انگيزه لازم براي ساختن ابزارهاي خاص خود را براي كشف اين ماده دارند, شركت هاي كوچكتر اين كار را نمي كنند.وي گفت: "اين گران است ، يك بالابر سنگين از نظر عملياتي است و به دانش تخصصي نياز دارد.". وي گفت: "ما اين شكاف را ديديم و فكر كرديم كه مي توانيم يك سيستم مشترك ايجاد كنيم تا بقيه اكوسيستم فناوري را در اختيار داشته باشيم تا مواد استثمار جنسي كودكان را كشف و حذف كنيم.وي گفت: "در زمان راه اندازي روز چهارشنبه ، Safer توسط 10 مشتري از جمله سايت هاي به اشتراك گذاري تصوير Flickr ، Imgur و VSCO ابزار ارتباطي در محل كار استفاده مي شود. طبق گفته Thorn ، Safer قبلاً 100،000 تصوير سوءاستفاده جنسي از كودك را در برخي از اين سيستم عامل ها تشخيص داده است. كارشناسان زنگ خطر كودك آزاري را در هنگام بيماري همه گير coronavirus به صدا در مي آورند 28 مه 202002: 29 راه اندازي Safer به عنوان مقادير ضبط شده از سوء استفاده جنسي از كودك به صورت آنلاين پخش مي شود. در سال 2019, بيش از 69 ميليون تصوير و فيلم به مركز ملي كودكان مفقود شده و بهره برداري گزارش شده است. Safer مجموعه داده هاي بزرگي از تصاوير سوءاستفاده جنسي كودكان را كه توسط مركز ملي كودكان مفقود شده و بهره برداري شده بررسي شده و به اثر انگشت ديجيتالي تبديل شده است ، در اختيار مشتريان قرار مي دهد. "هشس."اين هش ها را مي توان براي جستجوي سيستم عامل هاي آنلاين براي نسخه هاي تصاوير اصلي استفاده كرد. هنگامي كه سيستم پيدا كرد
اين ابزار به خودي خود كپي ميشود، يا اگر كسي سعي كند آنها را آپلود كند، به طور خودكار آن را پاك ميكند و آنها را به مركز ملي براي سو استفاده جنسي از كودكان مورد سو استفاده قرار ميدهد كه قبلاً توسط نيروي انتظامي مورد بررسي قرار نگرفته و آن را براي بررسي بشر مسدود كردهاست. اگر the محتواي انساني موافق باشند كه تصوير به درستي علامتگذاري شدهاست، the ميتوانند گزارش دهند، حذف كرده و از آپلود كردن هر كس ديگري از آپلود مطالب به نام "Saferlist" استفاده كنند، كه همه مشتريان سالمتر ميتوانند براي جلوگيري از تصاويري كه از other تا theirs.Imgu r حذف شدهاند، اولين شركتي است كه يك نمونه اوليه سالمتر را در ژانويه ۲۰۱۹ به كار برد. سارا Schaaf، يكي از بنيان گذاران Imgur گفت: " همه ما ميدانيم كه اين مسالهاي است كه ارزش مبارزه با آن را دارند، اما اين مسالهاي است كه همه شركتهاي فنآوري با آن روبرو هستند. او گفت: " اين يك موضوع بد است و شما از اين كه مردم فكر ميكنند كه اين مشكل براي the و انسانيت چيست، تمايلي به صحبت در مورد اين موضوع ندارد، اما به همين دليل است كه ما بايد ابزار مبارزه با آن را داشته باشيم و براي تعمير آن تلاش كنيم."
sponsible براي مرور تصاوير سو استفاده جنسي از كودك قبل از تبديل به " hashes " و وارد كردن مجموعه دادههاي امن شدند . اين مركز ملي كودكان
منبع