「人工知能が人間に取って代わる」とか大真面目に議論してるの見たら本当に心配になってくる
ディープラーニング自体は前からあった概念で、最近上手くいってるのはマシンパワーの向上と発見論的な進歩がいくつあったからに過ぎないんだが
ディープラーニングはほぼブラックボックスなのに、何がそんなにありがたいの?
よくわかんないからありがたがるんじゃね
すたっぷさいぼーみたいに
「作曲ができる」、「ボードゲームが強い」を拡大解釈して、「ディープラーニングはなんでもできる」と思ったの?
>>4
再現性がなかった分スタップ細胞の方がまだマシ
「たった3行のPythonコードでディープラーニングができる」みたいのに踊らされてる大卒が大勢いるのが問題 スペックが追いついて来たならここからの発展も速いだろ多分
とりあえず文系は新しいおもちゃを与えられると喜ぶからな。パソコンが普及したときも人類の危機とか煽ってたから
>>8
「ディープラーニングでやってみました」的な、全く本質的じゃない研究・開発に金が動き過ぎてて気持ち悪くなる 人間の脳のほうがよっぽどブラックボックスだし
NNのほうがコントローラブル
>>11
どう発展すんの?
次の発見論的な進歩を待つの?
「ディープラーニングで脳を作る」なんて現状あり得んぞ
コスト関数が決まってる問題の最適化しかできないんだから >>7
まあその問題は世界中で18世紀から変わらずずっと抱え続けてるけど
世界は今日も平和ですからそんなに気にせんでいいのよ >>18
ディープラーニングで研究続けて
さらに次と組み合わせていくんじゃね
囲碁もモンテカルロ法&ディープラーニングで強くなったし >>18
脳は作れなかったけど目に近いものは作れたぞ
それは大きな発展 >>20
「ディープラーニング」だけあってもどうにもならないし全く脅威じゃないということが分かってるなら俺としては言うことはない 人間の脳も解析したら仕組みは最小二乗法みたいなもんでしたーになるかもしれんし
研究すすめんことにはな
危惧していることはわかる
会社の上は金は出さんし、すぐ結果ほしがるし
メディアは「AI = ドラえもん」てな感じで取り扱ってるよね
実際には分野ごとにAIは別々のもので指向性も違うのに
基本ディープラーニングはルールがないと役に立たないわけだからルールのある分野は強いよね。囲碁将棋もルールがあるから無双できるわけだし
これからはルールのまだ分かってない分野に突っ込んでいってほしい
言われているようなことを実現するのに必要なのは深層学習の応用よりも別のアプローチによるブレイクスルー
と思いながらもこれから勉強してうまい飯食っていきたいと思ってる
>>21
目の再現は典型的な「答えがある問題」だからね
いくら面白くても人間にとっての脅威じゃないし、人工知能にとってのブレイクスルーではない 完全情報ゲームで強くなったぐらいじゃあまだ夢がないよな
ホリエモンも真顔で人間が働くても良くなりますよとかドヤってたな
>>28
それでも特徴量を機械学習出来るのは驚異だろ、会計士とかいらなくなるぞ グーグルが作った量子コンピューターがおもしろそうだ
稼働条件環境が絶対零度とかまだまだ大規模すぎるがわくわくする
なんで1が人間に焦点を当てているのかわからないが、例えば翻訳タスクでは従来手法に比べてかなり自然な文章が生成できるようになった
ありがたくないのか?
>>26
身近なものでルールの無いAIと言ったら
SiriとかGoigleアシストとかだよね
法則性はいくつかあるかも知れないけどパターンは無限大
アキネータはどうなったんだろう 国民(奴隷)に夢見させるための心象操作なんじゃないか
>>1が、深層学習の原理不明な点を問題にしてるのか
それとも答えを導ける問題の種類が(万能性の極めて高い人の脳に比べ)ごく限定的なのを
問題にしてるのかがいまいちまとまって無い気がする >>35
絶対零度は物理的に作れない (´・ω・`) >>33
「トラックがあるから人力で運ばなくて良くなった」くらいの進歩ではあるよ >>36
たしかに、技術やからしたら馬鹿者ねーのという記事たくさん見かけるからなー
AIに人類は征服される!
とか、何も勉強せずに騒ぎ耐える輩とか辟易する >>37
siriもGoogleのやつもAIじゃなくね?ただの自動応答じゃないか。wolframalphaとかならまだ分かるけど >>34
まだ決まってない
働き口を見つけられたらそれでいいから独学で簡単なのを作ってみる
深層学習だけのつもりじゃないけどいろいろアルゴリズム掛け合わせて資産運用というのもやってみたい >>36
自然言語処理も必殺技みたいに言われてて気に入らないわ
そりゃすごいけど、非専門家がビビらなきゃいけないようなことかね >>47
資産運用なんかは既にGSとかがやってるんだっけ? >>39
同じ話だよ
機械学習がくりこみ群的なクローズアップ(ダウン)として定式化されたら飛躍的にできることも広がる >>45
話違うけどWolframAlphaはめちゃくちゃ便利だよね
マセマティカが使えないときは代用できるし
Siriは詳しくないがGoogleアシストはGoogle的にはAIらしいよ あれ嘘っぱちだぞ
高校時代にスクールバスの往復で寝ながら聞いてたけど、起きたときに英語が聞こえてきて不快になる以外の事はなかった
>>49
普通にあるだろうね
今はどちらかというとリアルタイムでアクセスしまくれる証券会社あるいは方法を探すというのがいちばんの課題になると思ってる >>44
Googleは何をやりたいのかよく分からんな (´・ω・`) うんうん
>>1の言う通りだよ
これでいい?おやすみ >>51
ふーん? 申し訳ないが何言ってるか僕にはよく伝わらないが
とにかく貴方にとっては同じことなのね ディープラーニングでFXやったグループいたよな
結果はお察しの通り微妙
別に資産運用といえばFXってわけじゃないが
>>53
数学運用以外にも結構使えるから重宝してるよ。
GoogleアシストはAIなのか。一度使ってみたことあるけどポンコツで嫌になった ビッグデータん時と同じだろ金稼ぎのお題目が欲しいだけだし
そんなん目くじらたててもしゃあない
>>59
うん
ディープラーニングの原理が分かったとしてもなんでもできることにはならないだろうと思ってるが >>61
彡⌒ミ 彡⌒ミ 彡⌒ミ 彡⌒ミ
(⊃⌒*⌒⊂) (⊃⌒*⌒⊂) (*:.。.'.。.:* (⊃⌒*⌒⊂)
/__ノωヽ__) /__ノωヽ__) *・゜゚・* /__ノωヽ__)
アッー!
|
|
/ ̄ ̄\ / ̄ ̄\ / ̄ ̄\ / ̄ ̄\
|_| ̄|_| |_| ̄|_| |_| ̄|_| |_| ̄|_|
i|i
∩ ピュッピュッ
______________________________
3 凸 凸 CREDIT 00 >>60
安定して勝てるようになるには開示される情報を解釈する自然言語処理も必要だと思ってる >>63
何年かは忘れたけど
Googleが何年かを目処をGoogleアシストの会話を流暢にする。と発表してたよ >>66
ディープラーニングという言葉を完成された汎用性の人工知能という意味で使ってるのかな? ディープラーニング専用のチップどこが頭出すかだな
マイクロソフトのホロレンズにも搭載されたが、そろそろ一度出してくれ
あのやすいHDMなんかじゃなくて
>>68
巡回セールスマン問題は「できました」的な発表だったよな >>70
それはファンダメンタルズ分析的なこともやるということね
多分俺が挙げた例ではチャートだけ見て売り買いしたんだと思う 聞いた話だけど量子コンピュータが完成したら
パラレルワールドが存在することを証明したことになるんだっけ?
シュレティンガー方程式!!(言いたいだけ)
>>72
>完成された汎用性の人工知能
実現の決め手がディープラーニングだと思ってるモンスターが多過ぎだと言いたい >>79
タイトルとかアブストラクトで「できた」って言っても本当はできてない論文が山ほどあるから、読んでない俺には判断できないということ >>68
すごいな1mKまでこんなの冷やせてるのか >>78
お見受けするところ、人工知能畑の住人でも無い癖になんでそんなに怒るのかな・・・
(ひょっとしたら機械学習系の畑ではあるのかもしれないけど) 人工知能分野って3年くらい前にブレイクスルーがあって一気に進展しそうみたいな話聞いてたんだけどまた停滞してんのかな
>>84
?
何が気に入らないのかはっきり言え
あと「>>1の分かってなさ」を指摘したいならもっと具体的な批判をせよ ディープラーニングべんきょうしたいんだかおすすめのほんない?
大学の簡単な数学とプログラムならたいていわかる
最近本多すぎてどれかえばいいかわからん
>>85
アルファ碁で人間越えたのが俺の中ではインパクトでかかったな
布石が異次元すぎる >>89
ディープ、の部分まで言及してなくなかったかアレ。ビショップのだろ?
浅い部分までの機械学習についてなら紛れもない名著だけれども >>90
でもトラックが自分の判断で人を殺したりしないじゃん >>91
「ディープラーニングの勉強」なんて存在しないと言いたい >>87
人工知能学会監修の近代科学社の本で勉強予定 ありがと。
いい本は翻訳された本になるのかやっぱ
怒られそうだができたらライブラリーでサクッと簡単な奴くめる奴から本読みたい
洋書はほんまよむの体力奪われる
>>92
人工で目が作れました
→例えばトラックで輸送できるくらいの進歩です
→でもトラックは自己判断で人を殺しません
おかしくね? >>94
青いやつ?
オムニバス形式だから外観にしかならないと思う てか、一昔前まで数冊しか検索に引っかからなかったのに、今検索するとでるわでるわ……
>>86
これは・・・気に入らないって程でも無いが、貴方自身がまだまだ深くまで知り尽くしていない
人工知能(:深層学習だけでない全体像)について、大衆の無知を責めるのは
目くそ鼻くそのように感じられたので水を差しただけ >>99
まるで具体的な批判じゃない
「知り尽くしてない」と言うが、まだ誰にも知られてないんだよディープラーニングの原理なんて >>93
ディープラーニングが作用する原理について
その定性的な有力な仮説・説明さえ全く存在しないと思ってる?
それとも、そんな仮説や説明は「学問・勉強」と(貴方目線では)到底呼ぶに値しない、という立場なだけ? ていうか人工知能の話ってこれから凄く発展しそうだねって話題がほとんどだからな
はじめて飛行機ができた時に将来的には大型にして人を大勢運べたらいいねって語ってんのと一緒
>>97
それ
概観でもイメージは掴みやすいだろうし、機械学習を銘打ってあるなかでは数式もそれなりっぽいから期待してる >>97
ちょっと意味わかんないですね
俺はそんな考え方してないので 「原理もまだ分かってない」のかどうかは知らんが
原理が分かってないことなんて世にいくらでもあるだろ
そもそもこの世界の原理が全然分かってない
今のCPUの回路なんて全然原理の分かってない量子論を応用してるんだぞ
>>103
定性的な説明なんかそりゃいくらでもできるだろ
「ディープラーニングの原理が定式化されてない」と言ってるだけ >>107
量子力学は定式化されてるからね
分かられ尽くしてはないが、それは古典力学も同じ
力学系におけるカオスのように、そもそも解けない問題があるから >>101
もし面白いと思ったのなら
お前の頭はヤバイで 定式化っていうけど例えば遺伝的アルゴリズムとかだって同様に定式化はされていなくても
多くの人間にとっては「なぜ上手くいくのか」が直感的にかなり妥当だし、ただ理論解析の
数式が整備されてないっていうだけの話で
・・・殊に実用的な「応用」に焦点をあてた(と俺は感じてる)文脈の話で、定式化の有無はそんなに重要な要素かね?
>>111
量子力学ってよく分からんところには目を瞑ってブラックボックス化してるだろ
何故か結果だけは分かるが結局原理は何も分かってない
でもその結果はありがたく使ってるよね Youtubeの英語の自動字幕の精度凄いけどあれもディープラーニング?
脳の演算だってファジィなんだから不確かさのない形式での定式化は不合理な気がする
漠然と立式するのは難しくはなさそうだが
弱いaiと強いaiの区別が浸透していないからこうなる
ディープラーニングの原理がわかってないってマ?
パーセプトロン的なニューラルネットワークに活性化関数を導入して非線形学習を実装した上でインターネットによって収集されたビッグデータで学習させてるだけじゃね?
>>113
は?
遺伝的アルゴリズムの定式化ってコスト関数の定式化と同義だろ
できてるよ
「多くの人間にとって妥当」ってあたかも客観的であるかのように語ってるけど滅茶苦茶主観的な言い方だからね
科学の話をしたいなら改めてほしい態度です
この世の仕組みをひっくり返すような「応用」を期待するのは間違いだって言ってるの
突っかかりたいだけじゃん
何も言えてない
専門家(のつもりでいる)? >>114
「よく分からんけど目を瞑ってブラックボックス化してるところ」ってどこ? >>122
それは学習後のネットワークの動作原理であって
学習過程が(勾配発散、という有名な障害等を回避して)うまくいく原理では無いかもね >>122
たとえば活性化関数を決める指導原理が存在しない
これを「発見論的な進歩」と呼んでる でもさー、テレビの普及、インターネットの普及、携帯電話の普及は
近代でも世間の在り方をひっくり返してきたわけじゃん?
これだけ流行ってるソーシャルネットワークも10年前まで怪盗ロワイヤルとかポチポチしてたんだよ?
ここから先、10年、20年、このままなわけないじゃん?
次は何が世間をひっくり返すの?
おしえて
>>124
不確定性原理とかエンタングルメントとか原理として認めてるだけなのでは 答えられないの?
じゃあお前から得るものは何もないわ
>>127
このままなわけないってのが無責任な結論だな >>129
例えば不確定性関係って導出できるものだと思うが、それじゃダメなの?
エンタングルメントもフォンノイマンエントロピーとかで「測られる」量じゃん >>123
すまんが貴方にとっての「定式化」という言葉のイミを聞いても良いかい?
そしてアルゴリズム(や深層学習)の「定式化ができてる/できてない」という表現の意味を
もうちょっと厳密な形で聞いても?
ちなみに遺伝的プログラミングが多くの人にあきらか、は確かに俺の主観だけども
・「ランダムな解のうち有力な物を残して、それと似た解候補を生成していけば
そりゃ良い解が最後に得られるだろう」という動作の定式的な原理・うまくいく理由について
多くの人に解りやすく・妥当だろう ・・・という物言いがそんな特殊なものであると思ってない
・また明らかに客観・主観の別が簡単に区別できる文脈ではあると思ったので
いちいち主観である事を際立たせた書き方にしていない
という2点の事情がある なんとなく
「定式化」イコール「強化学習やパーセプトロンのような、有限ステップ内の
学習過程のエラー減少・・・その果ての“ゼロ”化、が数式で証明されてる
&その減少の様子が(単にエラーの上限値だけであっても)定量的に数式で記述できる」
というイミで使ってるのかなと勝手に思い込んで応答してたが
どうやらそこまで単純な感じでも無かったらしいと気付いた
>>133
不確定性関係は実際の不確定性に合致するように生成消滅演算子を定義しててる
フォンノイマンエントロピーはエンタングルメントの大きさをはかるただの指標
それぞれ根本的にどういった原理が働いているのかは分からなさそうだしその根本のダイナミクスを定式化できないと言いたい >>136
「原理から導出できる」ことが必要だと考えている
こう書くと例えば「乱択的な方法は(ランダムネスのせいで)導出できないじゃないか」と言われるかもしれないが、乱択的な方法は中心極限定理だとかランジュバン方程式によって「定式化されている」と言える 機械学習でもランジュバン方程式立てたりするんだな当然と言えば当然か
>>139
サンキュ。 まぁ何かいろいろ気分悪くさせちゃったのなら謝るが
俺個人も貴方の「ディープラーニングがこの世の仕組みをひっくり返すほどの事はできない」
という観点には全面的に同意だわ
深層はDeep Convolutional Neural Networkぐらいしか使っていない俺の私見だが
究極的には深層学習は「ただの高精度なニューラルネットワーク/ボルツマンマシン」
に過ぎない、というのが俺の見方だわ >>138
ガウシアンが不確定性関係の等号を成り立たせる条件で、それより裾が広がってる波動関数については不等号になるだけじゃないの?
生成消滅なんて言う必要ある?
あと言い方が悪かったかもしれないが、フォンノイマンエントロピーの定義式は熱統計力学におけるエントロピーの定義から自明に導けるじゃん
「熱統計力学におけるエントロピーの定義が嘘かもしれない」って言ってるなら暴論だと思うんだが >>145
そのガウシアンが等号を成り立たせる場合の値を既知とせず計算で求めようとすると何らかの定義式を持ち出す必要があるんじゃない?
あとフォンノイマンエントロピーに文句があるわけでもない
それらの背景にある根本的な物理現象がどのような動的性質をもっているのかはブラックボックスだよね?っていいまい >>146
波動関数だけ仮定して(たとえば)座標と運動量の期待値計算したら不確定性関係の等号分からない?
ブラックボックスって何かね
「エンタングルメントのあるなし」が嘘かもしれないってこと? >>148
期待値じゃなくて交換関係を計算する
波動関数を仮定するときに不確定性を繰り込んでる気がする
ブラックボックスっていうのはエンタングルメントの背景に何があるかっていうこと
例えば重力は大体地上では重力加速度gが加わることが分かってて定式化もされてる
その背景には重力子とかヒッグス粒子とかが関わってるでしょ >>149
エンタングルメントエントロピーが背景と言ってよいのでは?
定義式だし
ダイナミクスってのが何のことなのか正直分からんが
重力加速度はまさに実験して発見するものだよ
星が違ったら違うから
この場合は質点の運動方程式を定式化した時点で重力加速度が定義されると言える
量子論できまるもんではない
ついでに言っとくと重力子は標準模型に入ってないしヒッグス場とどんな風に結合するか全く未知だから、この文脈で挙げられても困るかな 原理って、機械学習とか強化学習とかはわかってるやん
>>142
まとめカスの炎上クリック稼ぎに乗せられてるのに気づかないって哀れやな >>150
重力の話は相対論なんかも絡むから例として悪かったな
例えば金属に電圧をかけると抵抗に逆比例して電流が流れることが分かったとする
この時点で電流と電圧の関係は定式化は出来てるんだがその背景については分かってないと言いたい
実際には電子が流れてるんだが
エンタングルメントについてはこの例でいう電子の部分がブラックボックスのままだけどエンタングルメントの存在は認めてると言いたい
伝わらないかな >>154
エンタングルメントで実験系の説明はできないってこと? >>155
違う
エンタングルメントを媒介している粒子があったりするわけじゃないのにどうしてエンタングルメントが起こり得るか分からないってこと >>152
強化学習の最適解への収束性が有限時間内に確率1で起こることは数式と原理(っていうか公理っていうか)から証明済み
機械学習のうち「教師無し学習」は原理もクソも、うまくいくもいかないも何もなくって
「教師あり学習」の単層パーセプトロンは、線形分離可能な問題に対して有限時間内に
適切に訓練データを精度100%で判別する解が得られることが数式から証明済み
教師有りの、ニューラルネットが「局所」最適解に「漸近」していく事は
問題が「滑らか」であるという条件下でのみなら、原理から導ける
教師有りの深層学習は、勾配消失問題のせいで、一定以上高精度な解への漸近も
原理からは導けていない >>158
ある量子状態が量子ビットの直積だからエンタングルメントが起こるんだと思うが、
ダイナミクスって言葉の意味は分かった気がする「誰がエンタングルメントを運んでるか分からない」ってことね
たしかにそういう意味でスピンなどとも違うな
有効な反論が思いつかないがエンタングルメントは示量変数的なものだよな(厳密には面積則に従うので違う)
つまり分配関数みたいに、系によって決まって、系を特徴づける量以上の意味は持たないんじゃないか >>38
僕を利用して下さい奴隷にして下さいペットにして下さいお願いします
毎日どこでもペロペロ舐めますお願いします 深層学習(深層ニューラルネットワーク)も原理上で言えば
一応、(ディープじゃない)ニューラルネットがたどり着くぐらいの性能には確か接近するのだが
※Nielsen著のオンライン教科書の最終章参考
ちゃんとその「深さ」に見合った高性能が短時間で、実用上では得られてしまってる現象について
数式を根拠とした説明は為されていない
ただしこれは全く説明が不可能で見込みがない、という程のものでなく
現在は未解決問題の1つだ、くらいの事が岡谷著の教科書で為されていたと記憶している
>>153
君のこと、煽りカスのレス乞食だって気付いてた
でもなんか面白いこと言うかなーって思ってレスしてたんだけど、お前ほんとにつまんないな
もうレス返さないわ >>160
「量子状態が量子ビットの直積だからエンタングル」っていうような感覚が数式から物性を考えてる気がして違和感があるんだよね
エンタングルメントは示量変数ではなくてその名の通り状態がもつれてる様子を示唆してる言葉だと思う
示量的に考えるためにわざわざフォンノイマンエントロピーを導入してる
エンタングルした2つの量子間で情報が光速を越えて伝達するっていうし
その仕組みは完全に意味不明 ただの関数近似だからね、仕方ないね
文系とアホが過大評価してるだけ
発展には期待するが
何をもって「仕組みを理解した」というかにもよるけど
現在の物理学ではエンタングルメントは公理から簡単に出てくる原理だから
それ以上細かい仕組みのないという意味で理解はできてることになるんじゃないの?
>>165
・・・我にかえってクッソ恥ずかしくなった
が、どういたしまして。。。 >>168
重ね合わせ
観測による収束
シュレディンガー方程式
多粒子の場合はテンソル積
とかで公理化されるやつ。
物理学というより量子力学の一部かな。
ググったけど、この手の公理化の話はあまり出てこんな。 >>170
その辺一応ある程度は明るいんだけど物理的な性質に公理ってない気がするわ 情報の伝達は近接作用じゃないってことだろうが混乱してきた
>>173
既存のライブラリによってデータの扱いが楽で行列計算しやすい、可視化が容易、いざとなればCを組み込んで高速化できる
→これらことに着目して深層学習用のコードが書かれ、共有される
→そのコードを再利用して開発・共有する
→わざわざほかの言語でやろうと思う人が少なくなる
理由の半分くらいはどこもかしこもPythonで書いてるからだと思う
あと米国ではPythonでプログラミング入門を行う大学も少なからずあるらしい 別に誰も今すぐそこまで発展するって言ってるわけじゃなくね?
発展させればそこまでいけようだねって話なのに野暮極まりないな