1: 2017/12/21(木) 17:36:01.13 ID:4/AYVZ0vM
ロンドン警視庁には、児童虐待、児童ポルノにあたる画像を人工知能を使って調査していくというプロジェクトがあり、2、3年内をメドに実用化したい考え。が、どうやらこれが思ったより難航しているようす。なんでも、人工知能は砂漠と児童ポルノ画像の見分けがつかないんですって。人工知能が困惑するのは、肌の色と砂漠の色。一面砂漠という画像を、裸の人と認識してしまうのです。(中略)
3: 2017/12/21(木) 17:36:38.90 ID:TKsCOru90
抜けなくはない
6: 2017/12/21(木) 17:37:04.34 ID:5yZlkGFX0
男子中学生超えたな
7: 2017/12/21(木) 17:37:16.91 ID:kAnJXDwMd
クソアホAI
9: 2017/12/21(木) 17:37:37.85 ID:wTuen4WW0
AIはコレで抜くのかよ
12: 2017/12/21(木) 17:38:05.45 ID:McXYPZdn0
分からんでもない
16: 2017/12/21(木) 17:38:16.96 ID:ZZx1PLZjM
エジプト旅行行ってきた画像張ったら通報されるのか
17: 2017/12/21(木) 17:38:50.96 ID:McXYPZdn0
画像中央から右の砂漠が女の腹に見えてエッチや
21: 2017/12/21(木) 17:39:05.15 ID:mWJTHsSW0
エロ画像検索プログラム組んだら力士の画像ばっか出てきた話を思い出した
27: 2017/12/21(木) 17:40:00.02 ID:yL+xFP/la
やっぱ陰影ってポルノポイント高いわ
37: 2017/12/21(木) 17:41:02.13 ID:DqRB5wKc0
女性のオヘソ当たりを想像してしまった
43: 2017/12/21(木) 17:41:38.67 ID:9P7NqVNX0
真ん中右のところへそやん
47: 2017/12/21(木) 17:41:56.37 ID:P+oBvhE50
モザイク処理したら騙される奴いそう
引用元: http://hawk.2ch.sc/test/read.cgi/livejupiter/1513845361/