TikTokのモデレーターは、トレーニング中に児童への性的虐待の画像を見たと主張

tiktok on a phone

児童の性的虐待の写真のキャッシュが、トレーニング中に TikTok モデレーターに表示されたと言われています。 これは、違法な写真やビデオへの安全でないアクセスが許可されたと言う労働者によるものです。

フォーブス TikTokのコンテンツモデレーターになるためのトレーニング中に、無修正の性的に露骨な子供の画像を見せられた後、ショックを受けたと言うナセルと呼ばれる労働者について報告します.

Nasser は、ソーシャル メディア大手のコンテンツをモデレートするサードパーティ企業である、エルパソに本拠を置く Teleperformance で働いていました。彼は、TikTok の人工知能 (AI) に最悪の写真やビデオを見分ける方法を教えるプロジェクトに割り当てられました。アプリに投稿されます。

恐ろしいことに、Nasser は、すでに TikTok から削除された性的行為に関与している子供たちの生々しい画像やビデオの素材を見せられたと主張しています。

彼は懸念を提起した フォーブス 父親として、彼はそれが正しいとは思わなかったとビジネス誌に語った.

「そのようなものをトレーニングに使用するべきではないと思います」と彼は言います。

拒否

いつ フォーブス TikTokに返答する権利を与えたが、会社がトレーニング目的で従業員に性的搾取コンテンツを見せたことを否定した.

TikTok のスポークスパーソンである Jamie Favazza 氏は、同社の「トレーニング資料には厳格なアクセス制御があり、児童への性的虐待資料の視覚的な例は含まれていません」と述べています。

ただし、同社は、プロセスが異なる可能性のあるサードパーティ企業と協力していることを認めました.

難しい問題

児童の性的虐待に関するコンテンツ (CSAM) がソーシャル メディアや TikTok などのプラットフォームに投稿されると、それをただ傍観することはできません。

米国では児童虐待や搾取の画像は違法であり、発見された場合の取り扱いには厳格な規則があります。

企業は、コンテンツを行方不明および搾取された子供のための国立センター (NCMEC) に報告し、90 日間保存することになっていますが、それを見る人の数を最小限に抑えます。

ナセルが持ち込んだ申し立て フォーブス テレパフォーマンスが CSAM を犯罪的に広めているかどうかを FBI に問い合わせたとある従業員が雑誌に語ったことで、これらの制限をはるかに超えています。


画像クレジット: ヘッダー写真のライセンスは Depositphotos.

.

Loading...