1: 2017/12/21(木) 17:36:01.13 ID:4/AYVZ0vM

no title

ロンドン警視庁には、児童虐待、児童ポルノにあたる画像を人工知能を使って調査していくというプロジェクトがあり、2、3年内をメドに実用化したい考え。が、どうやらこれが思ったより難航しているようす。なんでも、人工知能は砂漠と児童ポルノ画像の見分けがつかないんですって。人工知能が困惑するのは、肌の色と砂漠の色。一面砂漠という画像を、裸の人と認識してしまうのです。(中略)

https://www.gizmodo.jp/2017/12/british-cops-want-to-use-ai-to-spot-porn-but-it-keeps-mistaking-desert-pics-for-nudes.html


3: 2017/12/21(木) 17:36:38.90 ID:TKsCOru90
抜けなくはない
 
6: 2017/12/21(木) 17:37:04.34 ID:5yZlkGFX0
男子中学生超えたな
 
7: 2017/12/21(木) 17:37:16.91 ID:kAnJXDwMd
クソアホAI
 
9: 2017/12/21(木) 17:37:37.85 ID:wTuen4WW0
AIはコレで抜くのかよ
 
12: 2017/12/21(木) 17:38:05.45 ID:McXYPZdn0
分からんでもない
 
16: 2017/12/21(木) 17:38:16.96 ID:ZZx1PLZjM
エジプト旅行行ってきた画像張ったら通報されるのか
 
17: 2017/12/21(木) 17:38:50.96 ID:McXYPZdn0
画像中央から右の砂漠が女の腹に見えてエッチや
 
21: 2017/12/21(木) 17:39:05.15 ID:mWJTHsSW0
エロ画像検索プログラム組んだら力士の画像ばっか出てきた話を思い出した
 
27: 2017/12/21(木) 17:40:00.02 ID:yL+xFP/la
やっぱ陰影ってポルノポイント高いわ
 
37: 2017/12/21(木) 17:41:02.13 ID:DqRB5wKc0
女性のオヘソ当たりを想像してしまった
 
43: 2017/12/21(木) 17:41:38.67 ID:9P7NqVNX0
真ん中右のところへそやん
 
47: 2017/12/21(木) 17:41:56.37 ID:P+oBvhE50
モザイク処理したら騙される奴いそう
 

引用元: http://hawk.2ch.sc/test/read.cgi/livejupiter/1513845361/

Twitterフォローお願いします!

おすすめの記事