iOSはガチガチに管理されてるからな
macユーザーの俺もiPhoneは買わない
確実に問題ない画像も引っかかって目視チェックされる機会はある
チェックするのは人間
まずは反対されにくい児童ポルノに手を付けて徐々に検閲の対象を広げてく作戦でしょ
レベルの高い手描きの絵とか、稚拙な手描きの絵なども的確に見分けて
対象から外してくれるのかな?
2次元のロリ絵も自動消去されて阿鼻叫喚する未来が見える
児童ポルナーがアイホン使わなくなるだけだろユーザー全員の個人情報収集以上の意味が無い
日本人は自分の赤ちゃんのマッパの写真を
思い出に撮る習性があるがこれからは通報対象になるんか
ベトナム戦争の写真「助けを求める子供たち」も児童ポルノだよ
これって大きなお世話だしスマホ企業がやることじゃないよね
監視カメラの会社が家のなか勝手に見ますってのと同じだろこれ
アメリカはどんどん中国化してるな
自ら不自由になって自爆してんだから中国も笑ってるわ
>>12
これ
オフラインのデジカメ使うだけだわしょうもない すべて見てから児ポの判断するんだろう?
見ないでどうやって判断するの?
しかしまあこれで中国にどうこう完全に言えなくなったし
プライバー云々はオワタな
ただの高い劣化アンドロイドになった
>>11
自動消去どころか通報されてアカウントBANもあり得るかも >>1 >>4
そのうちiphone内の画像検閲だけでなく
macと繋いだHDDやネットワーク内全部の画像映像とかやりそう スマホやPCの中身を、公開されたら恥ずかしい人は多数いるかもしれんけど
見られたら絶対困るって人はあまりいないんじゃないの?
1歳も個体差を正確に見極めるappleさんパねぇっす
・NCMECの予算を承認してるのはアメリカ議会=事実上国家による検閲
・デバイス内でハッシュ照合するっつってもその照合元ネタとなるCSAM写真は「NCMECや他の組織が提供」ってことは、そことの通信が行われるのは間違いないだろ
・分類閾値を超えた画像は手作業でバウチャーの内容を見て一致を確認…って、バウチャーが具体的にどんな代物なのかさっぱりやが、おまそれ結局目で見るんやないのかw
■NCMEC (全米行方不明・被搾取児童センター)とはどのような組織なのか
NCMECは、1984年に国会議員や当時の大統領ロナルド・レーガンによって設立された非営利団体であり、アメリカ議会が毎年予算を出している。
司法省もNCMECと協力しており、FBI特別捜査官や分析官がNCMECで勤務している。
■児童性的虐待コンテンツ(CSAM)とは
CSAMは、若者や未成年者を性的虐待や搾取の危険にさらすコンテンツを指す。
Appleはユーザーの画像をiCloudにアップロードする前に、デバイス内でNCMECや他の組織が提供するCSAMイメージのデータベースにハッシュ照合し、暗号化したバウチャーを作成して共にiCloud Photosにアップロードする。
iCloudでは極めて高い精度でCSAMを分類する閾値を設けており、それを超えている画像についてはAppleが手作業でバウチャーの内容を見て一致を確認。
プライバシーってのはわかるけど、
一体これのどこが困るんだ??
実装されて日本の契約台数がだだ下がりでもしたらマジで恥ずかしいんだけど!
>>1
ないない
ポルノがどうとかなんて単なる口実だから(笑)
監視社会にしていきますということ これで1件も逮捕できなかったら全員の鞄の中覗き見しただけだなw
>>28
iPhoneのようなサンドボックスじゃないから、それをやったらセキュリティ的に終わりだ
各企業からmacでの作業禁止令が出るレベル これに文句言ってる人はもちろんLINE使ってないよね?
>>8
アメリカはどうか知らんけど絵がアウトな国もあるしなぁ >>33
馬鹿ウヨクが熱望している中国のような社会かw なんか中国製のほうが安心としか思えんわ
仮に抜いてたら欧米が高速で袋叩きにするからな
叩いてない時点で安全ていう証拠になるw
信じる者は騙される。
その気になれば、見れるけど、見たとは言わないだけ
しっかり、かれらには証拠が残っていますよ。
おそらく、別の手法で、たまたま見つけたと証拠を作られたら
どうしますか?
信じる者は騙される。
>>7
児童ポルノ検知したという理由でやりたい放題も可能 アメリカってもう魅力無くなってもうたな
いままでごくろうさん
>>12
そういうこと
ポルノがどうとかは単なる口実 こどもに貸したらいつのまにか犯罪者になってるかもしれんのかなかなかこわいな
>>11
消されるだけならともかく、米当局に通報されるよ 中共の仲間入り
味方の犯罪は隠蔽、政敵だけは吊し上げが常識
次は党に対する批判を含む文章を見つけ出す機能を搭載します。
エロ関係の技術は謎が多いからな
常に最先端とも言える
>>46
ワクチン強制含めて世界中がチャイナ化に向かっている
たまたまではなく、計画としてね >>1
その内、馬鹿ウヨクがヘイトしようとしてもシャベツ的な書き込みが出来なくなったりしてw
もっとも底辺馬鹿ウヨクはiPhone持てないんだけどねwww >>12
全ての画像データを検閲出来るようになるとユーザーの属性分けやランク付けが捗る
ネットのアクセスは全て掌握出来てもオフラインのリアルまでは把握しきれないからな 幼い花弁画像は駄目ですか?
花を撮るのが好きなんですけど
自分に関する写真は一切保存していない。 端っから信用してないから。 漏れて悪趣味だと笑われる写真ならいっぱいだが、別になんとも思わん。
メモ代わりに種々のデータを一時的に写真にとっていたが、今となっては非常に愚かなことをしていたようだ。 暗黙の信用関係でなりてっている世界だと勘違いしていた。
他のを見ないでどうやって検知するんだ?…何気に中共の手先になったか!?
その内児ポ犯罪絡みどころか普通のエロも絵も修正されてくんだろうな
・不具合で全画像送ってました
・関連会社の社員が私的な目的で画像送らせてました
・画像を送りつける嫌がらせ再び
独身で子供居ないけどお子さんの写真とか撮ってる人が不幸になりそうなので人道的観点から俺は反対です
>>46
まあ一般論として、見てませんよって言いながらこっそり覗くムッツリな紳士よりは
見せて見せてって言いながら覗くオープンなイケメンの方が、好感度は高いよな 全て確認しないと、検知出来ない訳だからな!
取り敢えず、全部見るに決まってる
細かく裁断して並べ替えて自動保存復元閲覧するなど、色々回避手段出そうだけどな。
アップルにのぞき見されるとか
よくこんなの使えるな
>>37
LINEで裸の子供の画像を送ってる時点でおかしいだろwww 気色悪いからAndroidにしたいけど
なんの機種がいいのか分からん
>>68
そういうのは他所もやってるだろ
今回のは、ちがうっぽいよ? >>1
アメリカのIT企業が発展してる理由これだろうな
他国の技術情報み放題
誰がどこにどれだけいるか把握し放題 中国で売っていくための方便に児童ポルノ検閲だーって
いいように使われてんだよ
自分の子供と一緒に風呂に入っている画像で通報されます
>>68
クラウドに上げなくても端末内で判定される模様 ここから判る教訓
iPhone にDATAを残すと、漏えいの危険がある。
そしてその漏えいは把握できない。
写真は携帯で撮らない、情報はくらうどに上げない。
写真は普通のデジカメでとって、個人のPCに残し、暗号化して保存する。
これでiphoneがシェア落としたり、
中古市場にあふれかえったら笑えるな
>>7
Appleだと共和党トランプ集会とかに参加している奴厳しくしたりしそうだな >>79
アメリカでは父娘で一緒に風呂に入るとFBI案件 児ポかどうかAIが画像認識する為にはまず全てをチェックしないといかんだろ
検知するしない以前の問題
ヴァンガードとかステートストリートが内部でETF保持者の総意を取り纏めて議決権行使していけばいいのでは
手数料は据え置きでお願いしたいが
ロリペドくらい認めてやれ
LGBTのがキモいんだから
iPhone使ってた人が突然使わなくなった
どういう人か分かるよね
そのうち、知識はないから詳しくは言えないけど
画像のそのものバイナリ部分に保存者位置確認できるスクリプトみたいなのを忍ばせて
わざとエロ画像を拡散してエロ画像を保存した奴を逮捕することも将来できそうだね。
>>71
名前からしてアップるだぜ
どんな情報でも自社サーバーへアップるぜ ネットにダイレクトにコネクトしているガジェットでフォトとること自体デンジャラスなんだよな。 基本に立ち返ろうぜw
>>13
それほんと疑問だわ。どうやって区別すんの?って あのだまし絵『イルカと裸の女』は
どう判断するかな?
端末シェア取れてコンテンツサービス売れればえぇのに
わざわざこんなん宣言して売り上げ下げに行く必要あるんかワイにはわからんわ
俺は撮り続けるよ
娘のまんまんの写真を
そして逮捕されます
これはやりすき晋作かもしれないけど
いらない奴は買わなきゃいいだけだからな
こういう機能が欲しい人もいるかもしれないし
まぁオプションで選択できるとかにもできそうかもしれないけどな
2次のロリ好きで3次ロリ嫌いでもダメな世界になるのか...
別に表立って誰かに見せる訳でもないのにふざけんな
ってことはロリコンはiPhoneを避け始めるから
iPhoneを持ってるとロリコンじゃない証明にもなるってことか
やっぱりな。全部見られてんだろ。のぞき見して解析してんだよ。児童ポルノだけ検知って信用できないな
Appleの方針ではなく米政府による国策でで実装された機能でしょ?
すぐにAndroidも追従するよ
赤ちゃん時代のお風呂や風呂上がりの写真もあかんの?
iホンユーザーが協力して
九ピー人形の写真をたくさん取って
くらうどに保存する。
AIが自動的に検索する。
AI作業量を膨大にして、実行を妨げる。
iOS のバージョンアップしなければどうということはない。
iCloud なんか、使う方が悪い。
5GB だけタダで使えても、なんの役にも立たない。
もちろんガチの児ポなら構わないんだけど絶対に2次元にまで広げるなよ
マイリトルベイビーの成長記録(オムツあり)でも検知するのかね
メッセージ見ないなら我が子の写真でも判別つかないな
誤認逮捕マシン誕生か
>>59
本質的に何の信用も置けない奴らだと判明したしな
要するに選民でいたい、と言うだけなんだが
実情は別なんだよね >>101
こういう流れに便乗して野田辺りが法整備とか言い出して悪用する流れ クラウドがまさに雲のようにおまいらの持ってるケータイから完全に切り離された空に浮かんでおるんかー
>>13
そもそも子供の人権を考えれば、そんな写真を撮るべきでは無い 「あれ? お前あんなにiPhone自慢してたのにどうしてAndroidに変えたの?・・・あっ!」
良いことだよね
アップルが正解だよ
これ先進国の日本とかだと法的に無理
でも世界を股にかけてアイフォンがやるなら日本も洗浄できるわけ
非常にいいことだ
世界が平和になり
遺伝子異常で悪魔に魂を売り渡したような唾棄すべき人間たちが捕まる
良いことだ
Androidもやってほしいね
日本では運用出来ないから大丈夫だあ
うっかり消さずに渡米したら空港で拘束され公表されて人生が終わる
自分もiPhone使いだがアップルはかなり狂ってきていると思うけど
これでiPhoneは大幅にシェア落とすだろうな
やましい事があるからではなくみんなこの先何かあったら怖いでしょ
親が幼い我が子のプール写真保存してても当たり前にアウトだからな
他のってロリ以外の写真はってどう他か判断するのw
一度は全スキャンしないとわからないのでは
>>73
安住の地などないぞw
Googleはとっくにやってる
■児童性的虐待のオンラインコンテンツ撲滅に対する Googleの取り組み
Google は、オンラインの児童性的虐待コンテンツ(CSAM)の撲滅に取り組んでいます。
私たちのチームは、業界をリードする自動検出ツールと特別に訓練された審査担当者を組み合わることにより、Google 全体でこの種のコンテンツの発見、削除、報告に 24 時間体制で従事しています。
Google は米国の包括的な情報 / 報告センターである全米行方不明・被搾取児童センター(NCMEC)に CSAM を報告しています。
■2014年8月5日 米グーグル、児童ポルノ所持の利用者を通報
【8月5日 AFP】米IT大手グーグルが、児童ポルノを所持していたユーザーを米テキサス州の警察に通報していたことが明らかになった。
テキサス州ヒューストンの飲食店従業員ジョン・ヘンリー・スキラーン容疑者は7月31日、ワシントン郊外に拠点を置く全米失踪・被搾取児童センター(NCMEC)を通じてグーグルから警察へ提供されたユーザー情報に基づき逮捕された。 データ抜かずにどうやって判定すんだアホかもっとマシな言い訳考えろ!
どうにも本当の馬鹿だらけになったから
上級共は言い訳すら手抜きしやがる
まぁアメリカは子供絡む犯罪はかなり重たい刑罰があるし、結局野ざらし状態なってた部分に一石を投じる感じなのかねぇ
アップルの内部からも出てきそうだよなw
バカ除けアプリもつくれねぇw アップルの審査とおらねぇw
>>123
ぶっちゃけ
親が撮ったものであってもアルバムにガキの頃の自分の裸の写真があるのは嫌なもんだ
実感 >>132
肌色で塗りつぶした画像でも多分引っかかるよw
パチンコガンダム駅アフォーだぜ >>128
できないどころか悪化するから駄目だと言ってんの
理解できないのかよ?
本質的には個人の心の問題であってこんな事をしても抑制できない
逆に余計な事をしでかす口実を与えているだけなんだと言う 画像は見られても別に構わんけど会社の携帯なんかの顧客の連絡先とかデータ抜かれたら大ごとするよな。
>>123
子供の裸をポルノとか言って取り締まるのが異常なんだよ
中国の動画サイトとか子供が全裸で水浴びしてる動画とか普通にアップされてる
その方が健全だよ .
.
自社の商品使ってるから
中身を覗くのは自社の自由です。
こうですか?
有名人のハメ撮りがi クラウドから流出して10年経ってない
大人がハメ撮りや接写をiクラウドに保存してるの分かってる上での検閲
ついでにロリ以外のハメ撮りもいちいち検出して検閲者が見て楽しむのバカでも分かるわな
うちの息子が赤ちゃんや保育園の頃の
ちんこポロリ写真があるだが…
>>133
最終的に人の判断が介入するのはさておき
AIがウィルスチェックみたいな感じで端末の全ての写真や画像を
画像認識(チェック)するのは、問題ないんじゃね? そもそもがインターネットでの広告がどうしてパーソナライズされているのかを考えるべきだ
どうして女性には女性向けの広告があるのか?
名前も住所も広告には必要ない
そのひとがどういう興味があるのかだけでパーソナライズできる
GAFAの一角であるフェイスブックなど利用者はシムシティの住人になってる
そのシムシティではありとあらゆる行動が統計値として蓄積されてる
その統計値はものすごい現代の金鉱なのだ
だからフェイスブックはGAFAの一角を成している
どの程度の精度なんだろ
小学生レベルの画力の俺が描いた絵とかでもアウトになるのかな
どーすんのお前ら?
iPhone内を勝手に探られてFBIに通報される。
日米は、犯人引き渡し条約を結んでなかったっけ?
ならFBIから日本の警察へ捜査協力を求められて、ある日早朝にお前らの部屋がピンポーンて鳴るぞ?
オリジナルトータルリコールの合法ロリはどう判断するんだ?
>>146
びくってねぇ 気持ち悪い
これがみんなの気持ち 逆じゃない?
色々ヤバい事件検索してスクショすることあるけど
そういうのを隠蔽、阻止しようとしてるんだったりして
LINEやらTikTok使っちゃうiPhoneユーザー多いしこのぐらいでシェア減らすと思えないけどな
これ、AIだけではなく、最終的には個人が判断するだろうから画像見られ放題なるやん
怖すぎだろ
水着姿くらいだったら娘の写真を母親に送ってるけどアウトなのかな
孫の写真に興奮するばーちゃんはいないと思うが……
2006年の 「長い散歩」っていう緒形拳主演の映画が今アマゾンprimeで観れるが、小学生くらいの女の子の裸がおもっくそ出てきて「これもろに児童ポルノやろ」と思った
なんでアマゾンはこれ普通に配信してるの?
>iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、アカウントを停止して当局に報告する機能
これは注意しなきゃならんのではないか?
その趣味がなくても5chにネタとして投下しようと
検索→保存→Imgurにアップという手順踏んでるやつ
けっこういるじゃろ?
>>146
内部の人間が悪用するから
本質的には児童ポルノの根絶に至らないという事と
信用ならない奴らが勝手をすると言う二つの問題を抱えている話 バイデンやエプスタイン擁護してたGoogleフォトやアマゾンstorageは
その会社に私的流用や閲覧されるのわかってたから使ってないけど
アップルはそんなアホではないと思ってたよ
ガッカリだわ来月解約しとく
いまさらなにいってんだ
googleドライブでエロ画像削除とか前からやってるじゃん
夏休み、幼い我が娘と海水浴に行って撮った水着写真もアップルに監視される。
単純にかってに覗かれるのは不愉快よね。
世界の知識層によると、「泥を使ってるのは貧困層、知恵遅れ」という認識だってね。
そりゃiPhoneが勝つに決まってるわ。もう泥使ってるやつ見なくなってきたもんな。
スマホにエロ動画保存しなければいいだけだが
出先でオナニーするときのおかずがない出張族は困るかもな
iPhone内のメッセージは見ない(iCloudの中身は見ていないとは言ってない)
問題点は、特権階級の人間たちが個人情報を盗聴して相手をコントロールしようとする事。スノーデンファイルにも、飲酒運転をでっち上げられて潰される移民の起業家の話が出て来る。
超管理社会の検閲だろが!
中国の監視社会モデルを利用して、全世界に広げる魂胆だろが!
いい加減にしろイルミナティ死ね!
嫌いな奴にメール添付して送ることだって可能なわけだからな
>>143
Apple製品を使ってる時点でそのユーザーはAppleの奴隷
Appleのためにあらゆる情報を提供し、Appleが飛躍するための肥やしになれってこと
そしてAppleの飛躍のためには当然犯罪も許さず、Appleの手間を省くためにあらゆる犠牲もやむなし
プライバシー?そんなの奴隷にあるわけないでしょ >>167
私は子供に生まれなくて良かったと胸を撫でおろしています! >>182
Appleだけでなく、Androidやgoogleも得体がしれないけどな >>140
それこそが文系独特の考え方なんだよ
100年後もその論理から進歩していないだろうね
いまのIT技術とは革命なんだよ
とりあえず最新技術でやってみる
統計値がどんどんビッグデータとして蓄積される
それをもとにどんどん洗練された手法にブラッシュアップする
そこでなにができあがるのか?
現実という数字をもとにした誰もが受け入れざるを得ない犯罪者の検挙だよ
曖昧模糊としたあなたのような文系たちが社会が悪くなると言う言葉には論拠がない
でも最新のIT企業には100年後の人間にも示せるかっことした現実の数字が示せる
こういう政策を最新技術で行うとこれだけの数字で社会がよくなりました
これだけの幼児が助かりました
これがまともな人間の行うまともな政策だよ
あなたがた文系的発想の論拠はなにか?
たんなる妄想ではないのか?
なぜ社会がわるくなるのか?
それなら数字とともに示せるのか?
超管理社会の検閲だろが!
中国の監視社会モデルを利用して、全世界に広げる魂胆だろが!
いい加減にしろイルミナティ死ね!
iCloudストレージに月数百円の金払ってた全員に周知徹底しないとな
実写のロリに全く興味なくてもエロゲのCGスクショしたことあるオタク達は課金止めると思う
Androidユーザーはロリペドの疑いをかけられるなw
みんなあいぽんにしたほうがいいよw
でもさぁ
犯罪を犯すやつが悪いのであって
そういう画像を持ってるのが悪いって
拡大解釈過ぎなイカ
>>1
共産圏への販売分だけにしとけや。
児ポ云々の前に検閲でAUTOやぞ。 二次元やアニメもアウト?
ドラえもんのしずちゃんの入浴シーンも、らんま1/2もおっぱい出てた。
>>177
iCloudのサーバーはアップルの持ちものなので… >>185
だから
検挙しても根源的な問題は解決しないの
それは人の心の問題だから
今の表層だけを抑え込んでも駄目なの
ナンセンスな長文だな >>190
androidユーザーがロリペドなのは元から知ってた アップルのこういう上から目線的な態度って本当ムカつくし大嫌い
家族で海水浴に行った時の水着着てる息子や娘の写真とか入ってたらとりあえず通報されるんやろか
息子なんて上半身丸出しだから完全アウトだな
>>201
それをブログやツイッターにあげるチキガイ 日本のアニメやゲームのスクリーンショットが軒並み引っかかったりしてw
バルチュスや金子國義の絵画作品を、このiPhoneがどう検知するのか教えてほしい
>>204
それは通報先である日本側の対応次第でしょ kindleに入れてるエロ漫画も今のアップルならいちいち検閲して来そう
信用て大事
良かったなぁiphone信者
中身までApple様が検めてくれるとは光栄だろ
>>201
それが流出して
自分の息子がロリペドのおかずになることを望むの?って話だろ >>196
だからそれはあなたの脳内にある妄想なんだよ
例えるならば
信号機を設置しても交通事故はなくならない
ボケ老人など器質的な問題はまったく解決しないからだという論理だ
しかし現実は世界中に信号機があり社会的に有用だとしてつかわれている
これなら理解できますか? >>213
だから上げる話はしてないの
画像をスマホ内に持ってたらって話じゃないのかこれ >>211
運用する側に何の信用も無いからね
組織側に厳格な国家からの監視はないだろ 来年辺りには世界中の児童ポルノ被害を未然に防ぐために全カメラ映像全音声や位置情報、血圧心拍数などのヘルスケアデータをリアルタイムで送信しますって言ってそう
>>210
警察はアップルの垢には関与しないでしょ
垢停止するかどうかはアップルのシステムが決めることであって そんなにこどもの写真を撮りたかったらアナログカメラでやれよ
>>215
アップロードしなければ
自分のスマホは100%安全だと思っている? そのうちに自分らに都合が悪いファイルとかみつけたらこっそり削除したりしそうだね
問題はこれを悪用するウイルスが出たらどーするんだろねw
アップル側からじゃわからないんだろw
海外の一流企業の人事には「泥を使ってたら黙って切る」というマニュアルがあるってね。
知性のある人はApple製品を使うのが常識になっているみたい。
別に見られても不都合は無いんだが、勝手に差し込む事も出来るって話にならないか?っていう危惧はある。
>>214
すり替えだな
地下に潜るだけだよ
つまらん理想ではなくてデータの外部保管場所として
自衛させて下さいと言う話なら理解はするが
基本的に バカ なんだな >>227
Appleはユーザーと誇りが第一だから屋ないよ。
中国と組んでテロをするのはGoogle、泥だというのが各国の知識層の見方。 >>1
iPhoneって保存されてる写真とか動画を検閲してんのかよ
最低だな エロ画像は端末に入ってないし持ってもないけど検閲はすんだな
これっていいかえるとiPhoneユーザーのファイルは
apple側でどうとでも対処できるってことだよな
アップルがもう信用できる企業じゃなくなってしまってるからな
>>218
じゃあクラウドだけは絶対触らないようにしないとな
散々罠掛けて来てるけど >>1
アップルは、修理に持ち込まれたiPhoneの中身(所有者のエロいセルフィ)を抜いてネットにupった前科があるからな
信用できる訳がない >>1
Appleが炎上している
日本だけじゃなく他言語圏地域でも物凄い反感を買っている様だ
iPhoneの売り上げ下がりそうだな
プライバシーを売り文句に使いながら他人の人生をスキャニングするという方針を打ち出したのはヤバい
そろそろジョブズなきApple限界か それ以外と判別する必要もあるからそれ以外も対象
つまり
そもそも、人前でiPhoneやMac以外のスマホ、パソコンなんて見せられないよ、
恥ずかしくて。知性を疑われる。
そういやまだGETTRのアカウント作ってないわ
でもGoogleから村八分にされそう
まずは批判したらロリコン扱いされる反対の少ない所から着手して徐々に検閲してくってことだよな
特定の種類の画像だけをチェックできるなら幾らでも悪用できるよね
iPhone持ってないしそういう趣味無いから俺には今の所関係ないけど
他人のストレージの中身を無制限で閲覧出来ると言ってるに等しいからな
何がプライバシー重視だよ
クラウドはともかく端末内と通信の検閲は反発がでかいだろうな
娘の友達をその娘のお母さんに頼まれて塾まで迎えに行っただけなのに警察に6時間拘束されて携帯の中身がJCだらけ(旅行と海、プール)だったせいでマジ犯罪者扱いされて泣きながら帰ってきた親父みたいな人が絶対出ると思う
ジョブズの頃から「ポルノを見たいんだったらばiPhoneは使うな」とは言ってきたがこの判断は疑問符しかないね
Appleがプライバシーを侵すのは正しいのか?
iPhoneユーザは全く不安にも不満にも思っていない
異常者ぞろいの泥ユーザだけが無関係なのにAppleのやることに不満を述べているのが現実だよ
>>254
ローカルまで検閲するって言ってるのは初めて見たわ
今まだiPhoneだけだけどiPhone通ったらMacにも適用されるかもなあ 6年前にはグーグルが黒人女性をゴリラとタグ付けしていたが
アイフォーンはどこまでやれるのかな?
appleの意志一つでなんでも検閲可能は変わらないからな
児童ポルノは建前でスパイ活動でも別に使える
この弁解は意味ないだろ
あ、そうか
そもそも15にうp出来ない昔の端末使えば良いんだ
子供さんいる方、おめ
ハメ撮り載せてるツイカスも終わるな。そしてAndroidにユーザーが流れてAppleオワップル、ソニーの覇権へ
いやぁ流石ソニ子さまっす!
いよいよ神になった気でい始めた感じか
ますます付け上がっていく一方だな
>>259
iPhoneもiPadも使ってるけど今回の件は正直気持ち悪すぎる
誰が好き好んでバックドア付きの端末使うんだよ馬鹿馬鹿しい >>265
googleもmicrosoftも、同じことすすめてるわけだが この記事見て「やばい」はもう手遅れやねん
もうデータは抜かれてんねん
未成年に見えるけど大人のセクシー女優の写真をiPhoneに入れておいたら間違って逮捕されるかもな
>>266
テンシはテンシでも
天使ではなくてペテン師の方な
だって紛い者だもん そもそもそんな判別ができるんだから、保存しようとする時に弾けよ
>>272
そもそもアメリカのチェック機能で黄色人種の年齢って正確に判別できるのか?
白人からは成人でも子供に見えると聞くが 児童ポルノの線引きできないだろ
二次元とか合法ロリまでピックアップして面倒なことになる
アップルは終わった
自分の子供や姪っ子甥っ子の写真の可能性はどうやって判断するの?
>>269
もしこれ以上GAFAMがそういうものを進めるなら政府が巨大IT企業の規制や反トラスト法で会社分割に乗り出すと思うけどね
いまそういう流れが来てるわけだが
GoogleやAppleがある日突然消える日も来るかもしれない やぁ!(・ω・)おめぇら、こんにちは。
突然ですが、↓の画像をiPhoneで見たおめぇらはご愁傷さまです。
ヴァンヘイレンのアルバムジャケットも保存していたら通報されそう
児童性的虐待の捜査協力で
iPhone利用者に警察から取り調べか?
HDに履歴があったらアウトだねw
>>274
>既にiPhoneにあるデータだけでなく、新たに送受信されるデータに対しても監視を行います。
https://nazology.net/archives/94197
まあ送受信監視してるわけだから一方的に送られたものなら送った側が御用だとは思うが
未成年の子が自分の裸撮って送ろうとしてる時警告されるとかは方向性としてはいいと思うんだけどそのために監視システム入ってるってのもどうなんかね 入浴中の子供の写真と児童ポルノが区別出来るなら、凄い技術だと言うほかないw
児童ポルノなんてもってるやつらあぶりだせばいいとおもうけど、どうやってそれが児童かどうかを判別しているんだろうとはおもうw
アイフォン ユーザーの人にいいこと教えてあげるよ
設定から、プライバシー、そして下にスクロールして解析及び改善ってところクリックしてご覧
そして解析データって、ところあるからそこもクリック
アイファンでどんな操作をしたのか全部appleに送られているのであった
海で撮った6才〜7才頃の娘の水着写真が1000枚ほどあるんだがマズいかな
これその国の法に従うとある。
つまり、中国なら天安門関係の記録を全部消せ!とかも可能だし、ウイグルでの虐殺の証拠隠滅も容易になるし、個人を特定できるから通報義務で通報し逮捕‥有罪、投獄へとする事も可能になる。
アメリカでは幼児保護目的で使うかも知れないが、他の国ではどうするかは分からない。
プライバシー保護を重視してると言いつつ、侵害する機能だから、本当に実装されたら‥信頼が損なわれそう。
>>288
>違法画像が検知された場合、データが抜き取られ、警察に通報されます。
これが事実なら、ハワイ旅行で死ぬ日本人も出てきそうだなw もう内心の自由も通信の秘密もなしか
まあこれは日本の憲法だけども
メッセージのほう「読んでない」と言い逃れができる可能性はあるが、写真のほうはおっぱい画像、漫湖画像、ケツ穴画像などなどと区別するために見る必要あるだろう。
AIのほうでおおまかにふるい分けしたとしても、最終的な判断はアップルかその下請けのおっちゃんが「こ、こ、これは ロリータおっぱい画像だ! 許せん!」ってやるんだろうし。
遠隔で閲覧ができればメール送受信もできそうだぬ
パソコンも不要なカメラ、マイク、無線接続を内蔵するようになって何年ぐらいかぬ
強盗が他の物は盗まないからって言ってるように聞こえる
>>291
写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写が該当らしい >>233
やるって言ってんじゃんw
ダボス会議の決定に従ってるだけだからやるよ >>294
お前それ別件で逮捕されないか?大丈夫か?
撮影者ならやばいぞ >>293
共有をOFFにした。でも意味ないんだろうな… GoogleドライブにJK彼女のモロ画像置いてるけどお咎めなしだな
一説には垢banって聞くけど
>>289
そういう技術を開発してる変態プログラマーやテクノロジストが居ることが怖い
まさに変態的な技術力 Huawei→バックドアがあるかも!? 証拠はないけどとりあえず制裁
特定ユーザーのスマホにアップル社員が児ポを密かにストレージへ書き込んで通報とか色々悪用できそうだな
apple→バックドアがあるのが前提(!?)で、堂々と使う宣言w
>>304
なにがやばいんだ?
家族でしか観ない画像なのに >>310
Googleが金融経済制裁されない理由はアメリカ企業だから
アメリカがやれば正義
Appleはそういったところから距離を置いていると目されてきた
アメリカ合衆国の捜査機関からの暗号解除などの協力も拒んできたはず
それをやれば自社製品の価値が毀損されるからだ
以前これはアメリカで大きな問題になった >>313
海外基準では身内でもダメなんだよ
家庭内での性犯罪か当たり前にあるからなw
そこからしてもう狂ってるからこうなる >極めて高い精度でCSAMを分類する閾値を
まさかのタナー法?
ファーーーーーーーーーッッッッッッッック!!!!!
自宅や車と違って端末は勝手に入ってもまだ罪はないっぽいから法規制は遅れそうだぬ
各自釈迦の手を自作しませうってことかぬ
>>279
男には海水浴やプールで遊ぶ我が子の写真持つ自由はなくなるということや >>233
そもそも中国で展開するためにクラウドのデータを中国政府系の企業に管理させてるのにユーザーと誇りとかアメリカンジョーク? >>294
お前、あまりにも性的嗜好ありすwwwww これは怖いのはスマホ本体の中身を常時監視されているってことだよな。
クラウドのファイルをそのクラウドが監視して、漫湖画像を発見してアカウントを凍結するとかしているが、その話よりもアップルのほうはかなりユーザーの足元に踏み込んでいる。
一応「12歳以下限定」とか言っているが、契約した当時に12歳以下でも12歳を超えても監視は続くんだろうし、そもそも12歳以下限定であるという保証は何も無い。
12歳以下ってのはあくまでもアップルが他の監査機関から監査も受けないで勝手に言ってる”自主規制”であるからな。自主規制ならそれを破っても誰からも逮捕はされないだろう。アップル以外の人は誰にもアップルの不正を指摘できないし。
まあ俺はアンドロイドなので今のところ何も関係は無いが、グーグルもこういったことを言い出す可能性も高い。
そのうち、(i) ←っていう文字でも逮捕されるだろう。
さすがに泥でも端末内までは監視してないよな?
クラウドをスキャンするならまだしも、
これはAppleは端末内部データまでも管理権限はユーザーに無いとするんかな?
ユーザーにあるのはiPhoneの使用権利だけってことか
ロリ規制のなにがヤバいって既に先の大統領選挙でバイデンが政敵のトランプ陣営に「バイデンはロリコンだ!」Super Creepy Bidenと扇情的な批判がなされたこと
民主党をセックススキャンダルで叩くのが常套手段とはいえこの世界の先が見える事案だった
ロリというレッテルは最大の個人攻撃として機能する、攻撃されればその人は社会的に終わる
これは立憲民主党の件で日本では実証済み
保守もリベラルも太刀打ち出来ないほどの凶器
>>171
問題はローカルデータを勝手に覗き見られる事だからなあ
自分から外部へアップロードした物を覗き見られる事とは次元が違う
機械的に自動判別するからと家中に監視カメラ設置されても不快にならないなら
この手の危険なプライバシー侵害も受け入れられるだろうね つまり男は自分の子供の写真を所持することすらNGになるって事か
アップルサイテーだな
たぶん将来男は精子だけ冷凍保存してチンコ切ることになるだろうな
チンコがあるから余計な疑念を持たれる
そしてほとんどの男たちはいつしかそれになんの疑問も抱かなくなる
そんなとき世界各地で男の尊厳とムスコを守れと立ち上がるテロ集団が出てくる
合言葉は「マカとすっぽん」
他の情報を収集してたとしても、ついうっかり、ごめんで済ますからなぁ
ああ、バイデン爺さんが「俺はロリコンじゃねえ!」というパフォーマンスをするがための
過度な児童画像規制政策なのかあ
お母さんが息子の赤ちゃんの頃のお風呂写真とか持ってても駄目そうだな
>>318
この先Appleの行く末次第ではほんとうにそうする必要が出てくる
アメリカでは20年代中には何らかの形でGAFA規制に乗り出すのでは無いかとも言われる ハメ撮りで熟女にセーラー服着せてる場合もひっかかるのか?
普通に娘の入浴シーンとかの写真が沢山あるが捕まるのか俺は
これ自分の子供達のチンコマンコがアイホンのロリペドスタッフのオカズにされるのか。
胸糞悪い機能だなあ
いずれ、二次元画像や反ワクチン、温暖化への反論などありとあらゆることが良いように検閲され、不利益を被るようになる。
大手プラットフォーマーの規制が絶対に必要。
AIがicloudに通す前に参考データと照らし合わせるんだろ
向こう一年は誤通報が絶えないかもな
でもそこまで焦ってるお前らがわからん
iPhoneはアップデートすると設定が勝手に変わるからな
150cm台までの日本人女性とか余裕でアウト判定だろうな
欧米ゴリラだらけだし
>>338
セキュリティーの秘孔を突いた
オマエはもう、詰んでいる! >>340
今年の後半にアップデートでneural Hashというアプリが入る予定でそいつが入ると勝手に画像データのスキャンを始めるそうだ 児ポ写真なんて持ってないけど気持ち悪い事すんなよ
何でiPhoneだけがそんなことするんだよ
カメラを買えばよくないか
最近は日記帳代わりにしている
>>341
いずれ?
アメリカ基準だから
二次元もリストに入ってるだろ 小学生位の男児の海水浴の写真を
母親が持ってたらアウト?
AIってそこまで判断出来るの?
アジア人の貧乳鶏ガラ女の写真はバンバン引っかかりそう
平原に乳首だけデーンと鎮座ましましてるのいるからな…
>>247
やっぱり養豚場の豚の烙印である虫食い林檎マークじゃないとなw >>129
>変態にプライバシーなんかいらんやろ
※ すべての善良なアイホンユーザーのプライバシーは、なくなります 普通の日本のAVあっちに持ってったら
白人医者が「児童ポルノです」
って判定するんだろ
懲役10年くらいになりそう
>>351
ちがうよ
送信するときにチェックするだけ
ローカル保存してるだけなら
問題ない iPhone使いかどうかでロリコンかどうかわかるようになるのは素晴らしいね
けっきょくみんなが今理解しつつあるのは
どうやらGAFAなどのIT技術とネットを支配している連中は新しい国を建設しつつあるということだ
だからこういう踏み込んだところまでIT技術で侵出してくる
このへんに危機感を覚えて今アメリカと西側諸国ではGAFAなどネット上の新興国を法的に縛ろうとしている
日本のようにたんなる個人の人権がーとかいう矮小な視点では動いていない
中国という覇権国家がここ数十年の間に突然現れたように
GAFAと呼ばれる新興国家が誕生していたのだ
しかも最先端IT技術というものすごい武器を携えて
昭和の時代にSF小説で描かれた悪い方に振れた未来予想図が徐々に現実になろうとしてる
ネトウヨ・・・は貧乏人だからiPhoneは持ってないかw
あれ
別に好きでなくてもロボットアニメのOPで半裸とかあったような
魔法少女もダメなのか
服着てればよいの
セーラームーンの変身はどうなるのだろうか
動画を保存しなければよいのかな
つまり子供に持たせるならiPhoneにしとけということか
>>363
根本的な所が違うからな
自分の煩悩や欲と向き合う事も少ないし
因果応報の視点もない
だから力を持つとあっさり喰われて幼稚な事をやる モバイル機器は監視ツールという認識を持ってる人間はどれだけいるのやら
>>138
子供の金玉の裏から尻の穴まで強制的に5年間は見続けた親の気持ち考えてあげて 俺はiPhoneじゃねえからどうでもいいんだが個々の画像が児童ポルノかどうかをAIで判断するんじゃなくてサーバーにあるNG画像データベースと照合するだけだろ?
ハッシュチェックするだけだから画像そのものは見ていないしどこにもアップロードしていない自分の子供の画像なんて引っかかりようがない
何をこんなに騒いでるんだ?
>>355
実の子かそうでないかの判定はAIどころか人間でもよく当人を知ってる人でなきゃ無理だし
その辺は少なくとも初期は誤検出されまくると思う
これパターン一致率が高いと判断されると勝手に警察に通報するシステムなのが嫌だよな
判定されてしまったら逆に判定する人のとこにはその写真が行ってしまうわけだろ こんなことをしてもデバイス変えるだけだろ
変態とはそういうもんだ
>>315
アメリカのリベラルがアメリカを滅ぼす
リベラルのエゴから出て来る自滅行為が中国をますます有利にしていく
最近の世界はこの手の構図ばかり
日本でも反リベラルが急速に拡大している
ニセ保守が居るなら、ニセリベも居る
本来のliberalは自由という意味だし、性にも寛容であるはずなのだが
寛容なはずのliberalが不自由の国アメリカを形作りディストピアを体現する
戦争は平和である。 自由は屈従である。 無知は力である。 1984-ジョージ・オーウェル- >>361
そうなの?>>288の記事には
>「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させたアプリであり、iPhoneにダウンロードされると、似たようなパターンを持つ映像が個人のiPhone内部にあるかをスキャンしはじめます。
とあったからスキャンされるのかと思ってた いや、だから、写真のicloud同期をオフにしていれば大丈夫なんだよ
で、そもそもマイクロソフトのドライブとか元々あって、Appleも同じ扱いにするって話
日本人からするとどう見ても30代なのに
外人はロリ判定したりする節穴だけど大丈夫なの
まあウソだわな
メッセージも閲覧してるし他の写真も芋づる式に検知してる
要するにドコモかしこも「バレなきゃいい」が蔓延ってる
フランダースの犬の最終回のルーベンスの絵のエンジェルが飛んでるシーンとかやべーぞ。
サイト広告に出てくるソシャゲロリキャラの水着姿を誤検知したりして面倒なことになりそう
本物の犯罪者はデジカメに移行するから次はマイクロソフトが動きそう
LINEに写真のアクセス許可してる方が危険だと思うが
>>382
LINEと一緒
全部韓国と中国に筒抜け
日本にはもはや国防なんてものは無い
政治家も公務員も自衛官も馬鹿ばかり
この国を中国が征服するなんて、チョロい
北朝鮮のITエリートの方が日本人より確実に優秀 >>379
参考文献のブロガーが適当なことを書いてるだけじゃね
ブログの引用元のAppleのサイトには
iCloudの写真をスキャンするって書いてあるだけと思うよ
英語読めないんでなんとなくだけどさ iPhoneつかいは自動ポルノ写真持っていない証明になるかもしれん
子供を盾にコンテンツにアクセスする言い訳を考え出したのかw
うまいやり方だな
これはほんとにいいことだとおもうよ
日本は監視カメラ設置はプライバシーの侵害だという
日本のリベラルは独特で感情だけで動く
歴史上軍事力をなくして存続できた国はないのに自衛隊は違憲だという
軍事力は必要ないという
だれがみてもこれは感情だ
未来において軍備を放棄すると100%日本という国がなくなる
それでも軍備は必要ないとわめきちらす
おかしいと問われると突然うたを歌い始める
理解できない反応がかえってくる
国の運営は数字をもとにするべきだ
予想される波の高さに応じた防波堤を築くべきだ
適当に感情で高さを決めるべきではない
我が子を撮った写真もアウト?
まだ赤子だからオムツ一丁とかあるけど
>>395
>>396
まぁこうなる罠
まさに罠
Appleがクズ野郎になるかどうかの瀬戸際
ジョブズが死んでからiPhoneも迷走しぱっとしなかったApple
そろそろ内部の人員がカリスマ経営者を失い劣化して腐ってくる頃だろうと思っていたがその時期が来た >>385
>ハメ撮りはOK?
一旦、AIがチェックして、おじさんとおばさんのSEXだったらセーフ 別にどうでもいいんだがぽまいらそんな画像保存してんのか?
こんなんばっか入ってるから日本の導入されたら終わりだな。
見ないって言ってるけど、どうせ見るんでしょ
LINEと一緒じゃないか
>>404
画像チェック始めたらどうせ全画像スキャンするだろうし、猫とか犬写真の多さにびびるかもしれないな こんなデータまで見られてよくiPhone使う気なるね
欧米視点で判断すると日本人の制服着てのハメ撮り動画はアウトになる可能性高いけどパイパンはセーフってか。
>>326
(i)とか日常的に使うプログラムのソースコード書く人みんなタイホされそうだなw >>399
意味不明だな
人間は数字じゃないし国家を形作るのは国民で人間である国民は感情で動く
数字が神様だとでも思ってるマッドサイエンティストは人類の敵
監視カメラで毎日ビッグブラザーに見て貰えればお前は満足なんだろうが
ハゲオヤジに毎日視姦されて興奮するのはお前だけの趣味にしておいてくれ 子供がビニールプールに裸で入ってる写真は削除されるだろうか
おっさんが全身脱毛してちんこを股に挟み込んで自撮りして通報されるかテストするのが流行る
>>3
性犯罪者に関してGPSもつけない
犯罪を繰り返す
どこにいるか分からない
ならこのくらいしないとダメだと思う
ペドコンにプライバシーは必要なし >>407
AppleのAI「コイツの彼女はネコだ。嫌らしい目つきで見てる。アウト」
AppleのAI「コイツの彼氏はイヌだ。ペロペロ要員だ。アウト」
こんな判断しかねないのがApple製品 これの狙いはペドフィリアはAndroidのスマホを使ってるから気をつけろという風潮をつくりたいんだろうなと感じる
中国製を締め出した理由が検閲をしやすくする為だったんだろうな
ジポどころか全ての情報を管理したい
>>405
反対すると小児性愛だとレッテルを張って正義漢気取りで満足している日本の愚民どもには辟易する
なにが正義"漢"なんだか
男か女すらも分からなくなった金玉抜かれたやつらが”漢”を気取り小児性愛を説く
なにかの冗談だろうw >>13
確かに
長女を最初に風呂に入れた時の写真とかあるな 日本人の幼児体型を理解してるわけないから危険だな
二次元もアウト、AVも演出によってはアウト
そんなものよりワキガを検知したらサイレンが鳴る機能を取り入れないか
次は、家庭内暴力防止のため、24時間音声と画像を監視
するとか言い出すんだろどうせ。
>>419
子どもは弱いし、事理弁識能力が低いから本人の本当の意思に反して性的搾取を受けやすい
大人は自分の判断でしょってこと 何が家族写真がだよ
お前ら変態って屁理屈だけは上手いよな
家族どころか友達も彼女も居ないくせに
>>421
本質は人類の性欲の管理統制と人口の抑制だからね、コレ
こいつらの意思はアメリカと英語を基準にして世界の価値観を1つに束ね、性のワールドスタンダードを作りたいということ
日本が90年代から欧米のリベラルに性関連でやられてきたことを考えれば火を見るより明らか
男女機会均等、淫行条例、児ポ法、ストーカー規制法etc
その結果、日本の社会はどうなりましたか?
日本人が、1番の被害者なんだよ エロとか入ってないけどこんな事されたらやっぱり気持ち悪いわ
でもandroidも同じ事するんだろうな
>>432
Googleは宣言もしないで黙って勝手にやってる
知らないのはあなただけ >>431
後者読むと日本の二次オタは半分くらい掴まりそうだなw
エロいの読んでない人なら問題ないだろうけど
トゥームレイダーに似せたCGの性行為描写でアウトなら日本の漫画の女キャラは9割以上男キャラも半分くらいはアウトだろう
二次元画像にまでこの厳しさはオーストラリアかニュージーランドか?と思ったらイギリスだった 性犯罪者野放し状態なのがまずい
人権は大事だけどGPSぐらいつけないと
それがだめなら堅気の世界でやるなら
あそこチョッキンぐらいないと
これで困惑する人が多いのか
この技術を悪用して、ハッカー集団が脅迫に使えそうだね
>>439
そうだね
ある日お前の家にポリスがやって来て
お前のパパにGPS付けないとね
あそこチョッキンしないとね >>431
マンガもダメなの
どこからが性描写なんだ
例えば昔の少女マンガは完全にアウトなんだろうか >>32
下手すりゃ自分の子供や孫の写真でアカウント停止されることになるんじゃないの?
iCloudを共用する他のデバイスまで全滅とかなったらわらえる。 >>4
ストーカー御用達のAirTagといい、なんか気持ち悪い方向に向かってるよな >>443
まずこれなんだよね
ポルノとか関係なくスキャニングすること自体があり得ない
それでバッテリーが消費されて充電切れが早まるとかなるとiPhoneユーザーとしては深刻な問題だよ
日本の消費者は確実にiPhoneを捨てる 外見が30歳に見えるJKを撮影してセーフの判定だったら
老け顔のJKに失礼じゃね?
我が家には娘が産まれた時に病院で撮影した全裸ご開帳丸出しの動画がある。現在、我が家では娘の抗議で視聴不可になってる代物だ。
浮かれきったウチの母親が撮影したものだが、あれがiPhone内にあったらオレはアメリカ行ったら逮捕されるんだな。
私用のPCやスマホなんぞいくらでも見てもらって構わんが、
業務用途のでやられちゃ困るわ
>>7
絶対コレ >>338
こういう事言うやつ多いけど、娘が大きくなった時のこと考えないのかね >>450
仕事で使うからiPhone SE 2 使ってるけど、iPhone なんてクソじゃん
シェアも落ちてきているのに、いつまでくだらないメモリ商法続けるんだって思う 検知しないだけで全画像チェックするんでしょ?しなきゃ児童ポルノ画像見つけられないし
>>372
それと写真撮るのは別だろ?俺も子持ちだがそんな写真撮ろうなんて思わなかったが。 >>459
ちょっと違う
アメリカには児ポファイルのデータベースがあって、例えばファイルのサイズや形式が一致すると、フラグが立つ
で、フラグ立っちゃったら、中身見られて、最悪逮捕されるw >>401
ジョブズはもっと過激に検閲に舵切ってた可能性もある。 >>459
なんかうちが持ってるポルノ画像データベースのハッシュ値と照合してハッシュ値一致しなければ大丈夫だよ!
送信時は暗号化したハッシュデータを送るよ!
みたいな事が書いてあるっぽいんだが英語読めないし技術的な事も理解できないしで詳しくは分からんかった >>460
ハイパーペドだろうね。マンコ全開だから。 >>462,464
じゃあガチのロリコンが自分で撮ったやつは見つからないのか 自動チェックが入ってiCloudに保存されないまでがやっていいことで
勝手に人が見る可能性があるのはそれこそ犯罪だろ
これから子供も持つ親はアップルの変態ペドフィリア社員に
子供の画像を勝手に見られる可能性があるからiphone 買えないな
>>1
悪のペテンビジネス詐欺宗教アップルの戯言を信じるバカなんて・・・
あ・・・
教信者にとっては、絶対神アポより賜りしお言葉は絶対か・・・ 多分だか指紋照合みたいなもんだろ
今頃あれこれ言ってるが
もう既にAppleに指紋データは渡してしまってる
顔認証なら顔のデータも
だいたいもう丸裸なんだよ
犯罪歴ある奴は指紋で確認できるし
過去に性犯罪とかで指紋取られてる奴は重点的にチェックされるだろ
>>467
まあ、そういうことになるな
ただ、そのファイルが拡散して、データベースに登録されたら検閲の対象になるから注意 >>472
邪悪な宗教アップルがやってないわけ無いよな
そもそも、検出するという事は全部の写真を認識処理してるって事
邪悪な宗教アップルに全てを捧げる狂信者って一体・・・ 誤認識でやられたらまずいんじゃないのと思う
俺みたいに登山の自然写真ばっかりなやつもおらんやろ
スマホ持ってる以上どのみち大元に情報は伝わるものと思ってるからプライバシーは別にいい
問題は児童ポルノの定義
そこをハッキリさせてくれないと家族の写真も保存出来なくなる
>>429
お前が未成年の時に撮影したハメ撮り画像も、持ってたらアウトだから。 そのうちアンドロイドもウィンドウズも同じことを始めて
最後の牙城はLinuxとなる
OPANTS-OS爆誕だな
>>1
えw
全部見ないでどうやって判断すんのwwww
ウソはよせ。 こういう些末な機能追加が蓄積されてどこかで他の製品に取って代わられるんだろうなあ
imodeがiPhoneに淘汰された歴史が繰り返されてる気がするよ
2次絵ももちろんアウトな
決めるのは向こうの国の法律だから
ロリコンパヨク wwwwww
震えて眠れ wwwwww
>>440
まああるだろうな
セキュリティの暗号が技術を使って生み出された
ランサムウェアのように猛威を振るうかもしれん これ、自分の子供と海で遊んだ記念写真とかだったらどうなるんだろうね
Google Photoとか、画像をAIが判断して気が付いたら勝手にタグ付けしてくれてるからな。
やろうと思えばすぐにできるんだろう。
キューピー人形は?
小便小僧の噴水は?
教会の天井の天使は?
>>462
画像を自動で1ピクセルだけ
トリミングして上書き保存するような
フリーソフトが流行りそうな >>482
検知(見つけてお知らせ)しないだけで画像を見ないとも収集しないとも言ってないよ 清岡 純子の少女ヌード写真は芸術作品として扱われてたのにな
華族出身だからか知らんけど
>>462
じゃ圧縮率変えてファイルサイズや
トリミングでアスペクト変えればいいのね >>472
指紋と顔はクラウドにはいってないぞ。
デバイスの中だけに保存されてる。 他は見ないとかそんな問題じゃねえ
ローカルのファイル勝手にスキャンすんのが問題なんだよ
他のプラットフォーマーせいぜいクラウドに上げたファイルをスキャンする位でそこまで踏み込んだことやってねえだろ
ガチの児童ポルノなんぞ一体どんだけ数があるんだよ
家族写真か、ジュニアアイドルか良くできた二次かのどれかだろ大抵は
旭川のイジメの画像を
保管して何もしなかった
教頭とか一発でアウトだな
iPhone持ってるか知らんけどw
メッセージは見ない、検知しないとか言われても
その気になれば見れることがわかったし、アップルがハッキングされたら漏れ放題ってことでしょ
.
そのうち
この世から
こどもが
一人も
いなくなるよ?
一応ローカルファイルのスキャンは
ユーザーの許諾いるんじゃね
まあちっこい字で契約書に印字して
許諾しないと使わせないとかなるんだろうな
それかiPhoneは貸与で
所有権はアップルに留保で
使用権をユーザーは買ったニダとか
マイクロソフトみたいな事言い出すのか
長々とした文章があって、あれに同意してるって事は検閲もOKって事か。
画像を判別するための学習データをAppleは持ってるってことやな?w
自らに疑いが来ないようにこのような行動を取る この不自然で異様な執拗さ
アップルのお偉いさん連中、ぜってー児童虐待、レイプ、ポルノ製造やってるやろ
iosアップデートでファイルスキャンを
仕込んでくるんだろうな
アップデート拒否ったらどうなるんだろw
appleの製品は今まで触ったことないけど
最近iPadが気になりだして買おうかなと思ったら これだから
やめだやめ 気持ちわりーんだよ
>>29
人妻NTRモノ趣味だけど後ろめたい事と人生に後悔は無い 問題ある画像が無くてもとりあえず全部機械的にだろうが確認されるわけだろ?
まー何されるかわからんし嫌ではあるだろうな
Apple製品使ってないから個人的にはどうでもいいが
そもそも
子供が裸で走るのは子供として当然だし
それを慈しみの心で可愛がる心をもってその画像を持つことに
何のやましさがあろうか
検閲出来ると言うことは収集も出来ると言う事。
つまりアップルの中の連中は真性ロリコン
動画にはスキャンが適用されないそうだから画像をPCの画面キャプチャ撮影でもして動画形式ファイルにしておけば結局問題の画像持ってようとどうもならんのでは…
てかエロ動画はいいのよく分からない
素人考えだと児ポならスマホに児ポ動画持ってる奴の方がよりヤバイのがいそうな気がするんだが
動画はさすがに中身見ないと判断出来ないからかな
世界中のiPhoneからロリ画像収集とは考えたなアップル!
さすがガチペドアメ公のやる事はスケールが違うね
データ見てみたら近所の野良猫フォルダが2Gあったわ
>>526
そうだよな
こどもの画像、写真、映像を持ってるからって
即座に犯罪視するのは
0or100 YES or NOの2元でしか考えられない思考力が足らない奴らだ >>528
野外で裸で四つん這いになってるなんていやらしい(´ ・ω・`) >>519
ワテは人妻凌辱物派だけど親近感を覚える 何でもない家族の画像を勝手に消したらもう誰もiPhone使わなくなるよな
ある程度は判断基準を説明しておかないとユーザーの不安を煽るだけだわ
JSや幼児の割れ目の動画や静止画山ほど入れてあるがAndroidで助かったわ
>>4
いつiOSだけがそうと思った?
こんなの行く行くの世界の為の社会実験の一部に過ぎない ションベン小僧の写真を色変えて人間っぽくして保存
……イヤ黒人でも検出できるだろうから色は変えなくても良いかな?
こどもの体は好きだけど
さすがにこどもの性器を見たいとは思わない
ふさかってるのに
自分の身体を参考資料用に撮影してるからいつの間にか覗き見られてそう
AIがロリ画像と誤認する画像を誰か作ってくれないかな?
いよいよアメリカも中国みたいなことを表立ってする様になるのか
>>543
この辺加工すればロリショタどっちもうまく(?)行きそうな気がする
>>543
昔、とある動画サイトだが、肌色の比率でエロ判定したら相撲の動画が上げられなくなった
似たような感じで、コメントで電話番号を登録させないための数字チェック入れたら、
野球のスコアボード書き込めなくなって苦情が来た
今は賢くなって大丈夫なんだろうけど Appleって過敏だなあ
まるで社員自身があえて見ないようにしたいと思ってるかのようだ
児童を見るだけで性犯罪を起こしたい衝動に駆られるんじゃねえのww
我が子も違法だ!とAppleに回収されるのね
あたらな商売目論んでいそうだな
日本人36歳男性、趣味ロリコンも検出されるのだろうな
いわれなき通報
>>1
見ないとか検知しない以前に暗号化されてて見れないって言ってなかったか? 4歳児とかの孫の風呂の写真とかを爺ちゃんに送ったらSWATが突入してくるわけか。熱いな。
iPhoneを持つということは責任とプライドが問われるということだからな
うしろめたさがあるやつはAndroidに移ってもらって結構
>>557
元々アメリカでは産湯の動画でFBIで来てた 勝手に撮影してインターネット上に上げたら人権侵害だから自分の子供ならいいという事にはならないんでない
ロリ漫画を読んだ履歴が残って海外旅行に行ったら逮捕されるやつ居そう
ディープラーニングすげーと思ったら既知画像と照合かよ
児ポとか死ねと思うけど勝手に覗くのはどうなんだろうね
Apple社員なら他人のエロ画像見たい放題かあ
政治家を脅すこともできるな
私は全ての嗜好において許容する人権意識はあります。
>>533
普通に使ってる人も写真ファイル全部とメールのデータを全部見られてるし、Appleが覗いてもokというお墨付きが出た
ポルノ規制名目で通信侵していくのが最近流行りのやり口だよな アダルト画像動画を落とすかもしれない携帯端末に入れてる奴なんて殆ど重症のキチガイだから、他のところでも尻尾だすだろうし、そっちで取り締まれよなー
sonyが客の金で海賊版を取り締まる機能をつけますってやってたのに似てる
本当に海賊版に手を出す奴はsonyにも金払ってねえんだよ
ラブドールを誤検出しないくらいのAIは作っておけよ。
まぁお国によってはロリドール所持で通報だろうけど。
紛らわしい画像で検閲性能試すやつが世界中で流行りそう
子豚の画像とかギリだよな
一部の変態を捕まえるために、大多数のプライバシーが侵害されるとかおかしいわ。
庶民は異常なほどロリ狩りしてるくせに、〇プスタインリストは放置かよ
クラウド保存した画像や文書が関係者に見られないなんてよく信用できるな
あれだけセレブヌード漏えいしてたのに。
Googleは黒人とゴリラの区別がつかなかったんだけど、Appleは出来るのかね?
俺のチンコを児童ポルノ画像検知したら絶対に許さん、絶対にだ。
間違えて検知した俺の全裸土下座画像は見るんでしょ?
プライバシーというか、
ロリペド以外の全ての画像が検閲されるから、
フツーに情報漏洩もありうる
アンチロリコンなら何やっても許される風潮があるけど、
全データ検閲しますってんなら仕事人は許さんだろ
しかもAIが檢知したら自動で通報だってよ
誤檢知はどうすんだよ… アップルは児童ポルノに並々ならぬ関心がある
ようですね
ふつうは児童ポルノばっかりにそんなに
関心を持ちませんよ
>>581
警察は今回の自動通報ウェルカムだから、笑ってにっこりお咎めなし 俺iPhone使ってんだけどエロ画像持ってないからセーフかな
>>576
クラウドに上げる前に問題になる画像がないか検知するシステムを利用した、端末内画像の検閲と自動通報だぞ
もう仕組み自体はできてる。あとはロリコン撲滅のために社会からお墨付きをもらうだけ pornhubとかで落とした動画を持ってると
FBIから連絡が来るわけか
我が子が砂浜で水着で遊ぶ姿も児ポにされるんだろうな
>>589
よその子の水着姿を盗撮したら児ポになるかどうかかな アメリカだと肘曲げて、曲げた内側をクローズアップして撮影するとFBIの捜査官に逮捕されるんだな。
孫のはじめての水遊び動画持ってるお爺ちゃんが逮捕されるやつ
>>279
だからそんな子供の人権を無視するような写真は、親であれ撮るなって話 日本でもやってよ
>>564
同意しなければいいよ 「しない」じゃなくて「できる」ことが問題なんだけどな
核保有を疑われてる国が「絶対撃たないから大丈夫」とか言っても信用できないように
次はAppleに否定的な思想を持つ人間を排除していこう
Appleを否定するなら人間じゃないから問題ない
アップルの中の人が
画像1枚1枚ていねいに精査します
児童ポルノなんて建前だろ
お前らのスマホの中身をビッグデータの材料として漁りたいだけ
>>596
これな
ファーウェイより酷いじゃん。。。 エプスタイン事件とか、相当な数の子供が消えてるみたいだからアップルは大真面目にコレやるんじゃない?
ポルノどころか食べてしまってるからね…
会社携帯とかiPhoneが多いと思うけど、全部情報抜かれてるんだろうな
日本が負けるはずだよ。。
国産スマホじゃないとダメだと思うわ
ソニーしか選択肢ねぇけど
エロ大国で成人でのロリコンがいかに多いか、このスレ見てるとよーく判るわ
欧米よりある意味陰険なエロだしなw
>>604
iPhoneが情報抜かれてるとか馬鹿だろお前
それ言い出したら他の端末はじゃあなんなんだよ
国産のソニーとか言ってる時点で話にならんw スマホの中身、見せたら負け。
クラウドなんか使ったら負け。
盛んにOSの更新させるのは
一時的にせよ、クラウドにデータを入れさせる為。
消してもあかんで。
コピーされとるから。
>>322
まんさんならええんかね
ショタとかいるけど >>22
多分AIで検出するんだろうけど、、
ちなみにLINEも特定のワードを書き込んだら検出して書き込んだ人物のリストのデータを中国にあるサーバに移動するよw 何故か自称愛国者ネトウヨくんたちや自称国家の軍師ネトウヨ軍オタくんたちが
目を見開き、手をわななかせ、恐怖におののき、歯茎剥き出しで怒り狂っているスレ
おいおいおいおい、おいw
>1の論点への賛否是非とは別に、チミらは2ちょんで普段何を言ってる? え?
町中の監視カメラ網とか捜査事項紹介での個人情報提供とか
国民総背番号制とかのデジタル国民管理とか特定機密法とか
こないだの軍事基地の土地規制法とか日共への公安監視もそうか
いつもああいう国民監視や国民管理の公安政策になにいってるよ
そう「やましいことがなければ見られても問題ない(キリッ」と
メガネをクイクイさせながらムホホホホホホとか奇声哄笑あげて
ブヒブヒのたまてんじゃないの? その威勢はどこにいったんだwww
チミらの日頃の口癖を借用すれば「やましいこと」あるのかい?
ほら、自前の論理を使わなくてもチミらの普段ドヤ顔で言ってることを
コピー&ペーストするだけで完全論破が完了となるw <丶`Д´> ナサケナイ。
まったくねえ、2ちょんの自称愛国聖戦士の皆さんは
実にね党派意識に満ち満ちたご都合主義者でありますなあw
しかもそのね、敢えてフックとなるポイントが児童ポルノ関係っすかw
おいおい、勘弁してくれよw コペ転の論点がよりによってそこ?
ビル・ゲイツがメリンダと離婚したこともこの件と関係あるのかもね
んま、ネトウヨくんとかを煽っていてもしょうがないので
ヨタ雑談をするけど、こういうのって自動検出なんでしょ?
いや最終的なジャッジは人の目を経由するかしらんが
情報の海からピックアップするっていうのはさ
最近はね、>1の会社はどうか知らんが、各種ブラウザでも
画像検索なんかあったりしてね、あれ面白いよねえwww
自分の撮った旅行とか風景の写真を画像検索して遊ぶと
結構ねえ、場所とか精度いいし、たまにマイナーな文化財や景勝地もヒットしたりね
あれはねえ、驚くところがあります。寺院とか仏像とか海岸とかビルとか
どこも同じようなものな気もするけど、たまに個別判定するんだよね。すごいなあw
もちろん、画像検索もね、たまには外すけどねw
観葉植物やお花の写真なのに"pot"ってなんだよw
文化財指定の旧家の家屋写真によりによって"fence"とかさw
重機の輻輳する建設現場の写真を"Black Board"とはおそれいる。
確かに手前に黒板ありますけど…あのさあwww
まれにはね、ちょっと感動的な検索結果もあってさ
当家のお猫さまがふかふかのキャットベットで寝ている写真検索したら
一度なにがどうしたか結果が"Happiness"って出てきたんだよねえ。
なんでそう判定されたかわからないけど(そもそも幸せの写真ってなんだ?w)
あれはね、不覚にも泣きそうになったね。確かに幸せそうだ。
40歳過ぎたヨメの写真を撮っているが、
海外の基準でいくと児童ポルノとして
認識されるのだろうか?
実験してみたくなる。
リバタリアン最近全然みないけどどうしたの?こういうスレに絶対来ていたのに
捕まった?
発表された対策は、
・「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)を送受信しようとすると
警告する機能「Communication safety in Messages」、
・iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、
アカウントを停止して
当局に報告する機能 「CSAM detection for iCloud Photos」、
・Siriや検索でCSAM関連検索をすると
警告する機能
の3つ(検出方法などの大まかな解説は関連記事を参照されたい)。
画像に保存したIDやらパスワードも抜き放題だな。
他の写真は見ないというメッセージを鵜呑みにする人は本当に純真だな。
>>583
通報数がうなぎのぼりで半永久的に逮捕できて点数には困らんな
今日はどいつを逮捕しようかなってあみだくじで決めるレベルになりそう >>456
ひっかかるのは自分の息子のパターンが多そう
最近まで男のふりちんなんてTVで普通に放映されてたくらいだから
母親はなんとも思ってないパターン
女が男のをみるのはやらしくなくてその逆はやらしいって風潮がある アップルがAIdiPhone内の児ポ画像を検索→怪しい画像があれば社員がチェック→通報って流れか?
アップルのロリコン社員がチェックしてたら児ポ画像収集が捗るなw
世界中の児ポ画像見放題
>>631
見つける過程で足の臭いを嗅ぐのが好きな重要人物を発見した時に
黙っていられるかだな そんなもんどうやって証明出来んの?何を担保にそんなこと言えるの
もうすぐ子供産まれるんだけど、これもうAndroidにした方がいいよね
当然、他と区別する為に全部見てるわな
ただ見るだけなのかな?そうは思わないが
人のスマホの写真勝手に覗かれるって事か
きもちわるwwwwwwww
ってことは何枚ものポルノ画像を学習させたってことだよなぁ・・・
判定するにはまず画像データ読み込む必要があるからな
まあIPhoneなんて全く必要ないから勝手に不買されて潰れればいいのでは(´・ω・`)
>>634
GoogleもMicrosoftも同じことをやるよ
アメリカの国策だからね例外はない スマホで写真なんか撮ればそりゃ見られるに決まってるわ、デジカメで撮ればいい
Microsoftはビルゲイツがロリコン億万長者に呼ばれてFBIに金王握られてるからな
Windowsも全画像検閲待ったなし
昔の洋ドラ24も今やったらこのシステム使って、該当地区にいる携帯に強制サーチかけて、イケナイ画像持ってる犯人を絞り込むんだな
そして別件で任意同行をかけて引っ張る
識別するのに利用されるハッシュ値を特定できれば、「100%検閲に引っかかる画像」を生成可能かな?
恐らくQRコードみたいに人間が見ても意味を感じない画像になるんだろうけど。
iPhoneで撮影されたくない場所にその画像貼り付けるとか、色々使い道ありそう。
毎日超大量の自動検閲によるアカウント制限が発生したら、Appleはどう対応するのか見てみたい。
>>645
ハッシュかインデックス取ってくるんだろうから、画像の端っこをちょっと弄る改変撹乱アプリとかでてきそう
これからは動画の時代だから動画の検閲技術も上がっていくだろうな アメリカって平気で大量虐殺をくりかえす国だからね。何をやっても不思議はない。
GoogleはGmailとかタダだから、botがメール内容走査してbigデータとして活用しますとか言われても、まあタダだからしゃあないかなって気にもなるんだよ
Apple iPhoneは違うだろ
>>557
子供と風呂入ったというだけで警察に押し込まれて父親が射殺される国だから そういやアメリカ、乳幼児の入浴どうするんだ
男の子は父親、女の子は母親って分担か
一人で入らせて溺れさせたらこれも虐待だよな
児ポはともかくとして
オンラインストレージ上に映画や音楽CDなどの著作権がある
ファイルを置いた場合、著作権侵害に問われるのかって問題が
未だにクリアされてない。
違法なのか合法なのかがはっきりしない。
>>659
なんか有名どころのクラウドサービスで著作権に関わるコンテンツは無断で消されるとか聞いた事あるな 296 対策として出来そうなこと ▼ 2021/08/09(月) 14:41:49.55
【スマホとタブレットで気をつけること】
・該当すると少しでも思う画像は撮ったりダウンロードしない。(iPhoneでは調べるのもNG)
・二次元の画像でもR18物や、肌の露出が多いものなどはスマホやタブレットに保存しない。
・Googleフォトやクラウドなどの自動アップロード機能は切る。
・iPhoneの使用をやめる。
【パソコン】
・該当すると少しでも思う画像は撮ったりダウンロードしない。
・パソコンで二次元のR18物や肌の露出が多い物を管理する際は、Onedriveなどでうっかり
自動アップロードする場合があるので、それらがオフになっていることを確認する。
・Onedriveなどのアップロードするソフトはアンインストールする。
・クラウドへのアップロードはブラウザのシークレットモードのみで行う。
・バックアップも含めて、アップロードや送信する際は、7-zipでパスワード認証付きの7z形式にする。
・ファイルの管理やログイン管理は厳重にする。
>>662
これでも先々わからないから保証はないかと
要は「怪しいモノ」はPCやスマホではNGってことで
とりあえずクラウド系は(児ポ関係なく)使わないほうが無難 回避アプリとか作られそう
撮影したorDLした画像データを判別のつかない画像データに加工→当該アプリでだけ復元表示できる、とか
強制フィルター機能をつければ無問題
保存しようとしても巨大ファイルサイズにしてスマホ自体をパンクさせれば済む話
ハッカーが嬉々としてトラップメールを送るだろうよ
やべーなアップル
プライベートもクソもない
ただの盗聴行為じゃん
>>655
AIが見たところ天然の毛髪がフサフサだ通って良し! >>654
その理論だと同性愛で養子縁組とか人工授精で子供がいる場合、子供が生物学的には同性だとどーすんのとかみたいな
同性愛の親が生物学的に同じ性の子供を入浴させた→性的虐待扱いで逮捕→性別が同じと言って入浴させただけで、欲情感じるペドフィリア扱いされた、差別みたいに言い出す事例出てきそう >>617
ああ、オレもオリジナルジャケにしてるんだよな アップルはまだいいよ
Facebookが中身をかなり見ていることに関しては
いつ問題になるんだ
>>663
考えてみれば当たり前の話
児童ポルノは論外だし、エロ画像とかも著作権はあるんだろうし、ネットがつながる環境にある事自体がおかしいわけで >>673
Facebookってアップロードした画像は全てFacebookのもの扱いじゃなかったっけ プライバシーとかどうでもいいんだけど、そのためにバッテリー酷使して
有料でもなかなかバッテリー交換に応じないとかだろ、どうせ
ニーメラー神父の詩の通りだな
これが画像だけで終わるわけがない
テキストファイルや通信履歴、音声も検閲対象になる
個人や組織を問わず力を持ったものは必ず腐敗する
後日導入ってなんだよ
使用ライセンスで 了承しました押させるからプライバシーも法律もないってか
なんで端末のデータを走査されなきゃいけないんだよ
私企業ごときに
検閲でもなんでも好き勝手にやる
ユーザーが口挟む余地無い
北朝鮮より危ないよ
自分の国のビルに旅客機2機体当たりさせる国だから今更何始めても驚かないけどな
iPhoneは内部のデータを漁って勝手に送信するってことだよね???
本当にそういった画像だけなのか?
他の画像やデータも漁って送信するのではって不安がある
流出必至だろ。額に貼って街を歩いてもいい物しか保存できんぞ。
カミさんが撮った
子供と風呂入ってる写真とか
勝手に消されたら怒るで
では先ずはアメリカのwallmartを調べろ。
5000ドルで子供を売ってるぞ。
それは放って置くのか?
身近で急にアホん使うの
止めたヤツがおったら
そいつマジロリコン
他の写真は検知しない、って自動画像解析でそんなこと不可能だろ
それとも、AIがロリとかペドとかを見分けられるのか?
動体検知というそれよりもはるかに簡単なシステムである完全自動運転さえ技術的にまだだというのに
>>48
スマホ一つで出来ることが多すぎるんだよ
過去にこんな携帯道具は一つもなかった
少し昔ならスパイとか国のエージェントかよと思うレベル。 これ、スパイ行為だよなあ。信用できないというか。そこまではさすがに
どうやって児童ポルノ検知するんだ?
日本人の顔は童顔だから若い奴はみんな検知されそう
こんな事発表したらリンゴ需要落ちるだろうにね
あーインサイダー・・・
家族写真もアウトなのか?日本の家族全員引っかかるじゃないか
>>689
それはデータを移してさっさと消した方がいんじゃね
スマホ落としたらやばいし 他の写真は検知しないだけどすべての写真を検査してるってことでしょ?
検知はしないが常にすべてを検査はするってことか
そのシステムが有るってことはすべての行動が監視可能ってことで
監視カメラで例えれば 家の中も監視され トイレに入ってるときもオフロに入ってるときも
部屋の中でも監視しているに等しいよな
自分の娘の乳児だった頃の写真とかも検知されちゃうの?
女の子が自撮りしたら appleがヌードかどうか 性的なものかどうか判別して
児童かどうか成人かどうか判別して 曖昧なところは人が検査するのか?
つまり 写真を撮った時点で どんな写真をとったかアップルが監視してるってことだ
いつどこでどんな写真をとったか 常に監視されている
もちろんシステム的には他の行動も監視されてる可能性が高い
「美しく統制の取れた独裁国家」に惚れ込んだ以上、今後も全部をAppleで統一して忠誠を貫くべし
待ってとりあえず判別するために
iPhone内の全部の画像検索すんじゃないの?
俺の禿げ進行画像とか
かなり嫌なんだけど
プライバシー重視とか言ってグーグル批判して シャアを伸ばしてきたのに
全く正反対のことするのか 嘘つきだな
>>708
通常の3倍の速度だったんですねわかります >>97
区別なんかしないよ。自分の子供でも有罪。無期懲役。 >>707
進む一方だから記録する意味はない
いいな? 全部の画像を検閲しないと不可能なんだけど
他の画像を検知しないとは一体
全ての画像を見てるからロリ画像を検索することが出来るんじゃね?
わからんけど
>>698
アジア系って若く見えるな
>>689
文化の違いだろうね
欧米文化を押し付けられている感じ。
ほのぼののつもりが犯罪になってしまうという。
ジジババは理解できていないだろう。 ストレートの人がエロ画像探すときにゲイ関係のやつが混じるのも
阻止してくれんか。
>>212
個人情報にクレカの情報まで差し出してこそ真の林檎信者 お前の家の中見せてください
児童ポルノしか検知しません
>>726
合法ロリが趣味な人は要注意だな
違法が好きじゃなくてあえて合法のギャップを楽しむなど人それぞれだろう バーカ
ポルノなんて餌
本当の狙いは
全ての利用者の全ての情報抜き取ることだよ
例えるなら
捜査令状なしで
全ての国民の部屋を全部家宅捜索するって話
とんでもない話
これってクラウドを見るんだよな
iPhone内も見るの?
スマホ内検閲かw
すげえ事考えるな
中国のためか?
>>730
今ある「クラウドに上げる前に問題がないかチェックする機能」を使ってiPhone内の画像をチェックする そういや、これ系のやつで必ず出てくる
長文野郎を最近見てないけど
とうとうお縄になっちまったのか?
リバタリアンてやつ
幼児の裸を見るのと熟女の裸を見るのと差して変わらないと思うんだが、幼児のほうが悪いというのが
全く理解できない…
男親が子供を風呂に入れてる写真が
欧米では児童ポルノ扱いになるんだぞ
他人事みたいに言ってるやつは無知
>>693
AI「毛が生えてないのでこれはロリ」
大変だ👸 おまえらの自撮りが全部検閲されちまう❕❕ 既に肌色比率でセンシティブ検知するのは確率したからな
あとはロリ要素の可能性がある画像検知できれば単純所持でお手軽摘発
黒人をゴリラと認識するAIに合法化直後の少年少女の見分けつくのか
日本の刑事裁判でもロリコンAV女優画像を検察側証人医師に未成年か鑑定させて答えは全て未成年者と答えたことあったよな
コナンや聖闘士星矢、キャプテン翼好きのショタコンもリスト化されるんだろうな
アニメやソーシャルアプリのキャラなんかも誤認されるだろうね
AIの検知はそんなもんだから
誤認もするし誤検知もするがAIにやらせれば責任取らなくてもいい
暇な時は他人のスマホに自由にアクセスしてプライバシー覗き見出きるってことだろ?気持ち悪いなー
そんなことはありえないあらゆるものが Apple に送信されている
私はもうこの話で自分たちの企業秘密も持ってかれる可能性ありますから Apple 製品は禁止です
今会社にある Apple 製品も場合によっては全部排除します
>>730
当然あなたの iPhone の中も検索されますよw
iPhone やめたら 自分の子供の写真がポルノ判定された事例いっぱいあるよな
私はこれによって Apple っていうのは単なるハードウェアメーカーじゃなくて CIA とか NS Aと同じレベルになったっていう風に私は見ます
何で高い金払って全部情報見られて企業秘密持ってかれて何なの
ここでアップルとおさらばできない人は
馬鹿です奴隷です
あなたのアブノーマルなところもちゃんとわかりますよ
iPhoneならね
映像の世紀って最近深夜にやってるから見るけど
アメリカっていうのは戦略もなければさ軍事的に枯葉剤撒いて300万人以上苦しめたり原爆2発落として日本人を苦しめたり正直ってクソですよ
特にベトナム戦争なんて何の意味もない戦争だった
最近ならアフガン戦争
戦争じゃなくて中村哲の手伝いでもしとけっての
そういうバリバリのアメリカ企業の iPhone が
その自由をまた制限する
スティーブジョブズってほんとバカだね
自分が死んだ後企業がめちゃくちゃになることわからなかったのかね
自分たちが理想としてることの反対をやろうとしてるのに会社の人間はそうですかやりましょうだって
Apple じゃねえよもはや
んじゃandroidなら安心かって言われると不安しかないぞ?
疑いだしたらきりがない
結局はこのどちらかを選択しなきゃいけないんだから微々たる問題じゃね?
あっpぇってもともとそういう風潮の会社だし、まあまあそういうこともするだろ。
嫌な人は脱獄すりゃいいんでしょ?
子供がゴリラ画像を添付して、黒人の親に通報したら面白い事になるなw
坂田利夫やどんぐりの写真をアップして引っ掛かるか試してみたい
仕様でメッセージは見られてすべての写真を検閲できるのが問題なんだよなあ
個人情報どころか性癖まで流出するぞ
クラウド同期するメモアプリとか文書アプリでエロ小説書いてる奴とかいるけど
中の人は見ようと思えば簡単に見られてモロバレなんだよな
Evernoteが確かそんな感じの話で一瞬燃えた事があったような
とにかく「映像の世紀」見ると、アメリカがいかにカスかよくわかる。
そういうアメリカの政府べったりの会社がやることにろくなことはない
沖縄だって何人の日本人女性がレイプされたり殺されてる?ひき殺されたり
いい加減にしろよアメリカ
>>734
熟女は自分で脱ぐけど、幼児は脱がさせられて自分の意思ではどうこうできないというのが法律のたてつけだな
あとクリスチャン的文化圏でロリコンは唾棄すべき大罪
大罪のわりには聖職者の少女性愛少年愛が多い >>770
クラウドは法的に責められるデータが上がってて、それが誰でも見られる状態になってたりすると、クラウドの管理者も責任を問われることになるから、それの対策だと言って検閲とデータの消去を正当化してる
にちゃん5ちゃんがやばい書き込み消さないでいて訴えられて賠償責任問われたみたいな んで、個人の端末を能動的に走査するのはどういう根拠があるんだという話になる
家に麻薬がないか定期的にロボット犬が上がり込んできて嗅ぎ回っていくのと同じ
もちろんお前らは麻薬を家に置いたりしてないからどうでもいいんだろ
これが噂のアメリカの共産主義革命か
次はiphone買わんよ
まさか、OS会社自らの意思で検閲かけるとかどんな理由があってもアウトだわ
さようなら
>>475
ガチが引っかからない検閲っていよいよわけわからなくなってきた… 独自児ポファイルのみ持ってるガチ犯罪者は引っかからない
既にネットなどに上がっている児ポ画像をシコシコ保存している潜在的犯罪者と見做された人間は引っかかる
って感じなんやろか
でも未成年が裸の自撮り画像を誰かに送ろうとしたら警告が出るとかあったからなんらかの肌色判定はしてるわけだよな
児ポが先鞭つけて、次は映画音楽ファイルの取り締まりってのが定番だな
むしろそっちが本命なんだろ
>>778
規約をこっそり変更すんじゃないの>根拠
嫌なら回線から出てって下さい、だろ マジかよwwwwwiPhoneやめてファーウェイに移るわ!wwwwwwwww
エロ目的ではないただの家族写真でも裸の赤ん坊写ってたらアウトやろ?
逮捕者続出で阿鼻叫喚の地獄絵図はよw
>>1
てんてー
どうやって他の画像と見分けるんですかぁ?
娘の庭のプールの写真はアウトになるんですよねー?
意味が不明なんですけど。
どうせなら児ポ大量なのは当局通報するってだけにしたらいいんじゃないですかー?
あと児ポに見えるワイングラス画像とかどうすんですかー?
>>785
全データ、中国当局が監視する件。
六四天安門とか書いてあるスレデータあったら、
すぐ中国人民解放警察が来るぞ 見る人によって児ポかどうか変わってくるから難しいよな
嘘発見機みたいなのつけた状態で写真見せて、反応しなかったらセーフ、反応したらアウトって事にすれば良い
メッセージ画像の判定は機械学習を利用する
誤作動して通報されたら面白いことになりそう
>>404
全裸の幼女の首輪かよ。完全にAUTO。 検知されてもそれを処理する人が足りないから大丈夫。
ほとんどは捨てられる。
捜査のためのパスワード解除を拒否した時は胸熱だったのに何故こうなる?
これ本当はイスラムや中華の監視したいだけじゃね
あとは金のためぐらいか
>「メッセージは見ない」「他の写真は検知しない」
絶対無いなw
自動検知件数が突出して多いユーザーアカウントを見つけたら「たまたま自動検知を回避した画像がまだ他にあるんじゃ?」と
強い関心が湧くし
どういうルートで問題画像を入手し、それをどこへ向かって拡散させているのか「絶対に調査したくなる」
こんなん本気でやったら中国以下だろ
児ポと言ってるが、端末の全画像データをappleがいつでも見れるようにするってことだろこれ
だって端末内の画像データを全部解析しなきゃどれが児ポかなんてわかんねーもん
アンドリュー王子はAppleに刺されたか……
気の毒に
>>801
このプロセスでCSAMが多数あると判断された場合、Appleは手動で確認してから当局に報告し、アカウントを無効にする。
この確認も、Appleが画像そのものを目視するのではなく、CSAMデータベースのアイテムと一致する画像の“安全バウチャー”を検査する。
この方法についてはAppleが公開している資料(PDF)を参照されたい。 >>1
オイラの持っているオリエンタル工業の画像なんかも該当しちゃうんだろうなwwww 既知のCSAM画像とiPhone上の画像が一致した場合のみ
Appleが該当する画像を復号できるようにするみたいな事は書いてある
CSAM画像と一致するかのスキャンは端末でするし
一致しない画像は復号出来ないようにするからプライバシーの問題はないとしてる
If the user image hash matches the entry in the known CSAM hash list, then the NeuralHash of the user
image exactly transforms to the blinded hash if it went through the series of transformations done at
database setup time. Based on this property, the server will be able to use the cryptographic header
(derived from the NeuralHash) and using the server-side secret, can compute the derived encryption key
and successfully decrypt the associated payload data.
>>一致するかのスキャンは端末でするし
この時点で気持ち悪いと思う人が多い
iPhoneでは子供の成長記録を残せません。
というわけで、Androidかデジカメ、ムービーカメラを買いましょう。
もう一度言います。iPhoneでは子供の成長記録を残せません。
児童ポルノじゃない変態コンテンツも
検知されて精査するんだから
見られてますよ
おっさんの裸と子供の裸の判断はするんだから
逆だよな
今までやらなかったこと自体がおかしいんだよ
だから GAFA解体なんだよ
アップルは偉いな
他のクラウドサービスはこんな発表せずにチェックしてる
>>819
お前はプライバシーを盾にやりたい放題だろw アイファンは写真保存機能を無くして電話だけで使えば良い
甥っ子をお風呂入れた写真あるんだけど
ポルノ扱いになるのか
iCloudにアップロードする時は各画像固有の鍵で暗号化する仕組みで
既知の児童ポルノ画像と一致する画像だけ
iCloudにアップロードする時にアップル従業員が復号出来る鍵を渡すって感じの罠なんじゃね
他の画像を従業員が復号出来ないのはアップルがアクセス権限やアクセスログの管理をちゃんとやってる物と信用するしかない
>>823
既知の画像でなければ対象にはならないとしてる 児童ポルノ画像がアカウントに一定数集まらないと復号できないとしてるが
そこはどういう仕組みかよく分かんない
判定には画像そのものを使うのではなく
画像から計算したニューラルハッシュを利用する
多少の色味や画質劣化などがあっても
見た目が同じ画像なら同じ値を返すハッシュ関数らしい
iCloudに送るのはローカルでニューラルハッシュから導き出した鍵(アップル従業員が復号できるやつかもしれない)
とその鍵で暗号化した画像ね
そのために画像みるわけでしょ。エロ画像は入れてないから別にいいんだけど迂闊に仕事上の書類とかスクショしてんのとか抜かれたりしないだろうね?
そっちが怖いんだけど。
>>660
自前の音源をクラウドに置くことで出先でもストリーミングできるようになるAppleとは正反対だな つまり以前摘発されたじぽサイトでやりとりされた既知のじぽ画像を検知して通報するってことか
いたずらメールに添付された画像や下心からエロリンク画像踏んだりしてのを自動保存したら死ぬな
>>744
お前今肌色って言ったな?
差別主義者は逮捕やで! 違法性のある物を
放置できないのはわかるが
超えちゃいけない一線はある
>>833
美術でも子供のデッサンや彫刻は避けるようになってしまった。
裸=ポルノという文化になってしまったからアートも萎縮した。 >>837
裸の子供なんか避けるほどそうそう描く機会ないだろ 肌色の量で判断する以外に自動化する方法あるのかな?
>>456
大きくなっても、娘の幼少期の裸の写真なんて何もやましくないけどな >>1
んなわけないw データぜんぶ抜くつもりだろ?
リンクしたクラウドやPCまで
ファイアーウォール解除してるLAN内のサーバーまで全て抜かれるだろうと思ってる iPhone作ってるのは中国だから
世界中のデータぶっこ抜かれると思ってる
ファーウェイ締め出したところで意味ない
中国製の林檎が世界中で使われてるからな
>>8
アウトな画像っつうAppleのDBに照らし合わせてだからそこにあるか次第 本性出してきたな
てかすでに監視してるしデータも取られてる
近い将来アップルだのグーグルだのに搾取され支配される運命
>>1
正義を言う名の支配。
それが目的だろ。
まぁ子供の写真に使えないから子育て世代はAndroidだな。
まぁAndroidの方がはるかに便利だしね。 端末ローカルに保存しておけばOKという話じゃないのか。
元記事みると該当の機能はfor iCloudってなってるが。
>>850
クラウド送信前にアプリがローカルでデータをスキャンするとあるのでそこで色々不信が生まれているんじゃないかと思う
iCloudはデフォルトだと同期になってるから同期切らなきゃローカルデータはすべてスキャンされるわけだし
同期切ってもローカルスキャン可能なアプリが強制的に入ってしまう事には変わりないので
まあ今の所今年後半から導入されるのはアメリカのみのようだけど ガキの写真とかどうすんの?
ニヤニヤ眺めるの?
キモいわ
>>840
アメリカでは親子の入浴写真で逮捕されてる
性犯罪者データベースに登録され
父と母は逮捕され
子どもたちは3人全て性犯罪者の子供として施設送り
数月後に不起訴になって元の生活に
もどれたたらしいが家族関係はズタズタ
これ納得できるのか? アップルのPDF見ると色々難しいこと書いてあるっぽいけど
要するにiCloudの方にバックドア仕組むってことだよね?
児童ポルノ画像だけを対象にするっては言ってるけどさ
なんか怖いって思われても仕方ないんじゃね
アップルの端末は仕事でも使うのでリスクのあるデータはもとから預けてない
でも万が一誤検知で垢バンされたら銀行、クレカ、電子マネー、証券口座、アマゾン、パスワード管理ツールにアクセスできなくなるからマジで生活できなくなるかも
Appleだからとかじゃない
これが背任として訴えられないのがおかしい
外国にあんだけ文句いっといてアホかと思う
>>853
ほう。じゃあ日本の出産時の記念写真なんかやばい感じ? >>810
だめだろうな
グローバル企業の検閲が怖いのは
むこうの国基準を強制適用されることだ アップルは個人の所有物を勝手に捜査するというのがどういうことか分かってない
既知の画像が対象ってことは家族写真よりもアイドル写真とかのほうが怪しくなるんだね。AKBや還流のように未成年に性的に露骨なパフォーマンスさせるグループのファンは気を付けないと。
適当に自分の腹とかアップで撮った写真入れて、誤爆するかテストしてみて
とりあえずiCloudと本体のエロ画像消しとけばいいのかな
>>860
日本の18歳以上のグラビアアイドルでも児童ポルノ扱いされそう これ国によっては認められない気がする
EUなんかは個人の権利が強くて厳しそう
日本でも警察ですら持ってない権限を一企業に与えるのはどうなのかという問題あるし
>>864
既知の写真って最初にどうやってコレクションするんだろ?
Appleは? >>871
最近多くなった熟女グラドルばかりになってしまうのかw
30代や40代でもやってる人いるけど Appleには比較検証用の膨大な児童ポルノのデータが蓄積されてるってことだな
交渉もあるかもしれないから
ネットは監視システムになってもしょうがないかもしれない
それは警察の仕事かもしれんが
児ポルノの判断基準は何処なんだろうな
自分の娘の産湯写真とかアウトなんだろうか
Googleも児童ポルノに厳しいよね
GmailやGoogleドライブ内の児童ポルノを発見するとBANだか通報されてたような
クラウド、児童ポルノで検索すると既にOneDriveやGoogleドライブは検閲されてるって話が大量に出てくる
JK援交モノが山ほど出回ってるけどお前らまさか持ってないよな??
>>1
他の画像を検知しないことは理由にならないんだがな
アップルは警察かなにかなのか? AI進化で殺人不倫万引き脱税等々を写真や音声から判定できるようになったとして
通報逮捕はやっていいことなのか?
>>891
ただ感情で考えても殺人や傷害や虐待や強姦はいんじゃね?と思ってしまうけど
窃盗(=万引き)や脱税は額によってはいや地道に捜査で割り出して逮捕しよと思うし不倫に至ってはいかんてしょと思う
誰が何を基準にどこで線引きするのか難しいところだな
少なくとも私企業の線引きと判断で不審な客にもそうでない客にも家探しみたいな事をするのはおかしい気はする >>859
詳細に捜査すればセーフだろうけど
通報された場合とりあえず逮捕されるし
子供は児童保護施設にとりあえず入れられる
同居してるから在宅起訴とかそういうのが無く
疑いがある時点で家族がバラバラにされるのがこの手の法律のクソなところ ほらお前らの炊飯器にもついてるでしょ
GAFA ってスイッチ
Appleにポルノとそれ以外の画像を明確に区別させる技術力があるとは思えないんだが
次は、詐欺を事前に防いだり、違法な送金を止めたり、差別を辞めさせたりするのでは?
少子化だからもう少しでポルノ撲滅出来るよ!よかったね
乳がデカければOKなのか
クラウドに預けてんだから他人に見られて当然なのでは
そもそもどうやって判断して検知するのか日本人なんか世界基準で見ると成人でも児ポ扱いで検知されそうだが
エロまで管理されるなんてiPhoneなど死んでも使わない
それでもアホなマカーにとっては喜びだよな