5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

【統計分析】機械学習・データマイニング4

1 :デフォルトの名無しさん:2014/06/24(火) 18:51:42.57 ID:Em7CYZzB
何でもいいので語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/index.php?FrontPage

■前スレ
【統計分析】機械学習・データマイニング3
http://peace.2ch.net/test/read.cgi/tech/1350121405/

2 :デフォルトの名無しさん:2014/06/25(水) 10:36:53.72 ID:mPBDJuwm
データが入力される
ノンパラメトリックな統計からモデルを推定する
推定したモデルを使ってパラメトリックな統計をとる

っていうアルゴリズムできないかな?

3 :デフォルトの名無しさん:2014/06/26(木) 07:50:27.77 ID:W91RvMJw
最終的にパラメトリックなモデルを使うなら
適切と思われるモデルをノンパラで選択するのと
なにが違うんだろ?

4 :デフォルトの名無しさん:2014/06/26(木) 08:31:59.35 ID:7IcoORrk
>>2
それをやるのが人間だろ?

5 :デフォルトの名無しさん:2014/06/26(木) 12:59:22.61 ID:fUTw065X
人間がやってることを代替させなければ!

6 :デフォルトの名無しさん:2014/06/26(木) 14:25:27.69 ID:fUTw065X
慣れた作業は使われる脳細胞が減っていくから、学習が進むごとに次元が減っていることは確実なんだよな。

7 :デフォルトの名無しさん:2014/06/26(木) 21:25:36.95 ID:iczatv85
結果を得られるまでの経路が
ショートカットしされるからだろ

8 :デフォルトの名無しさん:2014/06/27(金) 08:57:49.84 ID:gHc5TSoG
だからショートカットってなに?

9 :デフォルトの名無しさん:2014/06/27(金) 09:44:07.69 ID:QoMPTeso
dropout を超える新理論かなぁ

10 :デフォルトの名無しさん:2014/06/28(土) 00:10:17.28 ID:TVrOfA9M
コンピュータで意味を捉えることは難しい?
意味を捉えることができないとちゃんとした自動翻訳は不可能だと思うんだけど

11 :デフォルトの名無しさん:2014/06/28(土) 00:45:57.14 ID:YAFxSPv8
なにいってんのお前

12 :デフォルトの名無しさん:2014/06/28(土) 01:05:22.65 ID:mTJgjjdL
>>10
最近word2vecが話題になってるじゃん
それ使って翻訳の精度上げようみたいな話もある
http://arxiv.org/pdf/1309.4168.pdf

13 :デフォルトの名無しさん:2014/06/28(土) 11:04:49.83 ID:ofLhThqw
>>8
本田翼かな?

14 :デフォルトの名無しさん:2014/06/30(月) 20:30:38.76 ID:c7KKYzJF
>>13
ショートカットと顔認証といえば
佐倉マナだろ

15 :デフォルトの名無しさん:2014/06/30(月) 20:43:34.29 ID:o9UFtEyu
今は統計的手法が幅を利かせてるけど、なんかこれ、テクニカルだけで株式売買してるのと同種のモヤモヤがある
それで儲かっちまうなら文句は言えないが、本当はそういうもんじゃないだろみたいな

16 :デフォルトの名無しさん:2014/06/30(月) 20:52:28.04 ID:bnSHXbvL
統計的手法も何も、機械学習とは統計のことだ

17 :デフォルトの名無しさん:2014/06/30(月) 22:48:04.54 ID:f+je3Hmv
お前ら情報学板使えよ

18 :デフォルトの名無しさん:2014/07/01(火) 01:08:50.21 ID:L/OPur02
統計的手法はそこそこまでしかうまくいかないだろう

19 :デフォルトの名無しさん:2014/07/01(火) 06:27:47.60 ID:MHELM95w
>>16
ちょっと誤解を生むね。
統計手法も使うが正しいでしょう。

20 :デフォルトの名無しさん:2014/07/01(火) 07:00:33.33 ID:MHELM95w
>>15
以前より統計手法が幅を利かせるようになってきた。
おそらく、大学等で教えるようになった関係だと思う。
それが良いかどうかではなく、ネットなどのきれいなデータ
しか入手できないことが一つ(数理モデル使いやすい)。
もう一つは、論文にならないと業績にならないから、数理
モデル(統計など)に頼るため。
、論文にならない

21 :デフォルトの名無しさん:2014/07/01(火) 09:45:53.84 ID:/ObbDjB8
>>19
一見、質素なアルゴリズムでも、機械学習であれば必ず統計学的根拠があるんだよ。

22 :デフォルトの名無しさん:2014/07/01(火) 09:52:53.97 ID:Gwx7WEQO
それを機械学数=統計と言いたいなら、それは勝手。

23 :デフォルトの名無しさん:2014/07/01(火) 10:00:01.13 ID:/ObbDjB8
方程式に一意の厳密解が存在しない場合は、統計学的手法で仮説を立てるしかないじゃん。

24 :デフォルトの名無しさん:2014/07/01(火) 11:07:29.22 ID:WYvoT/3S
統計というより、確率論に根差しているだろうな。

25 :デフォルトの名無しさん:2014/07/01(火) 13:02:12.19 ID:/ObbDjB8
確率論って統計だけど

26 :デフォルトの名無しさん:2014/07/01(火) 17:17:47.91 ID:WYvoT/3S
確率は統計だけではなく
確率論と統計学が結びついて推測統計が生まれている。
確率論は統計だけでなく様々な世界に応用されている。
情報エントロピーが統計かというと、統計的にも考えることができる
だけで別に統計学というわけではない。しかし機械学習では昔から
使用されている。
機械学習自体は学問が目的ではないが、大学ではそうなってしまう
だろう。

27 :デフォルトの名無しさん:2014/07/01(火) 17:40:43.54 ID:WYvoT/3S
>>25
確率・統計が専門分野でないと思われるので
次のリンクのような資料なら、イメージつかんでいただけるのかと思う。
http://www.suri.cs.okayama-u.ac.jp/~kanatani/article/probstatguide.pdf

28 :デフォルトの名無しさん:2014/07/01(火) 22:05:26.49 ID:4Lh6wbTK
>>27
確率的な物理現象は存在しないっていうのは嘘だが、確率と統計は一緒に教わってるから特に区別する必要性を感じたことはなかったな。

29 :デフォルトの名無しさん:2014/07/01(火) 23:34:39.80 ID:6vkpmL6l
>>28
統計が目的であれば、確率論のうち、統計で必要とされる
部分だけを学ぶので、それは当然の帰結。

30 :デフォルトの名無しさん:2014/07/02(水) 22:12:22.34 ID:lcx7YinN
量子力学は確率が目的だが特に区別したことない

31 :デフォルトの名無しさん:2014/07/05(土) 20:06:18.08 ID:PDgdEPrp
word2vecとdeep learningって別に関係無いよね?
word2vecの前身にrecurrent neural networkが使われてたってだけで
現在のword2vecの実装はロジスティック回帰ベースのものになってるし

32 :デフォルトの名無しさん:2014/07/07(月) 17:08:53.19 ID:6CUPqjqe
jubatusのrecommenderはアンカーグラフ実装してねぇのかよマジ糞だな

33 :デフォルトの名無しさん:2014/07/09(水) 06:55:14.41 ID:oOFgi5QT
ベイズ更新って生成モデルじゃないと使えないよね?

34 :デフォルトの名無しさん:2014/07/11(金) 00:07:26.55 ID:Gkw7Pi8j
PARAFACモデルの説明に座標系の回転に関する不定性を有しないと書いてあるのですがそれは回転しても回転しなくても結果は変わらないってことなのでしょうか?
解釈しやすいように回転を加えてもいいのでしょうか

35 :デフォルトの名無しさん:2014/07/11(金) 08:26:13.87 ID:ifGpSMFq
>>34
数学版のRスレッドに書き込んでる人?

36 :デフォルトの名無しさん:2014/07/11(金) 11:15:39.14 ID:C7sM/QFr
はい。
ただRの質問ではないためここに書き込みました

37 :デフォルトの名無しさん:2014/07/17(木) 21:10:56.14 ID:BNJJix8k
学習が進むごとに使用される次元が減っていくアルゴリズムない?

38 :デフォルトの名無しさん:2014/07/18(金) 02:33:53.92 ID:hH6byO/W
>>37
L1正則化とSGDを組み合わせるとか
http://blog.unnono.net/2010/02/l1-sgd.html

39 :デフォルトの名無しさん:2014/07/18(金) 08:52:01.21 ID:hH6byO/W
普通にL1正則化のFOBOSでいい気がしてきた

40 :デフォルトの名無しさん:2014/08/02(土) 21:30:52.01 ID:/qujBAJ4
NNのバックプロパゲーションをとりあえず作ってみたんですけど、
中間層の深さとかニューロンの数とか、そういうパラメータってどういう基準で決めたらいいんでしょうか?

41 :デフォルトの名無しさん:2014/08/05(火) 14:02:24.80 ID:/qJaiIII
笹井さんの弔い合戦や、日経なんて消えてなくなれ。S発射ーーーーーー!

42 :デフォルトの名無しさん:2014/08/06(水) 21:14:57.02 ID:cXwK7sUI
>>40
データから学習できないパラメータ(ハイパーパラメータという)は
クロスバリデーションとグリッドサーチで決めるというのが定石
ただしモデル評価時にハイパーパラメータ探索時と同じデータを使ってしまうと過学習するかもしれない

43 :デフォルトの名無しさん:2014/08/07(木) 00:04:56.85 ID:9CasQhAP
>>42
なるほど。ハイパーパラメータも機械学習で決めるわけですね。
しかし、計算時間がえらいことになりそうだ・・・。

44 :デフォルトの名無しさん:2014/08/07(木) 17:50:48.87 ID:pSjuUDQ9
>>43
どこを読むとそう理解できるんだ?

45 :デフォルトの名無しさん:2014/08/08(金) 08:19:45.32 ID:nJEyrMWC
>>44
グリッドサーチって、総当り的に試すっていう手法だと思ったんですけど違いますか?

46 :デフォルトの名無しさん:2014/08/08(金) 17:55:19.04 ID:EJLhYX8C
まぁ結局はハイパーパラメータもデータから学習させてしまう
という意味では間違いじゃないかと

47 :デフォルトの名無しさん:2014/08/08(金) 17:56:32.58 ID:EJLhYX8C
曖昧だったので訂正
×間違いじゃない
○間違いとはいえない

48 :デフォルトの名無しさん:2014/08/08(金) 23:21:03.46 ID:0RLXnAM8
最も使いやすい言語/ライブラリは R ?

49 :デフォルトの名無しさん:2014/08/09(土) 04:45:08.40 ID:DjBMUpts
最近はpythonも流行ってるね
特にディープラーニング界隈

50 :デフォルトの名無しさん:2014/08/09(土) 05:57:53.67 ID:cm5mVcQg
言語より拡張モジュールの性能、使いやすさだろ。

51 :デフォルトの名無しさん:2014/08/09(土) 07:44:59.13 ID:nLPOsotQ
今、Rに比べてPythonじゃないとできないことってあるのかな

52 :デフォルトの名無しさん:2014/08/09(土) 18:55:54.95 ID:nyLka+AS
『われ敗れたり』(米長邦雄著)『ボナンザVS勝負脳』(保木邦仁、渡辺明著)
http://www.nikkeibp.co.jp/article/growth/20130802/360343/?P=1

53 :デフォルトの名無しさん:2014/08/09(土) 19:49:22.12 ID:l2WdSHx9
【動物】外へ出たネコはどこへ行くのか? 1000匹のデータから解明するプロジェクト [8/8]
http://daily.2ch.net/test/read.cgi/newsplus/1407513849/

54 :デフォルトの名無しさん:2014/08/09(土) 22:06:00.41 ID:Ab4q3STk
機械学習で、ソートのアルゴリズムを人間が考えたものより改善できるでしょうか?

55 :デフォルトの名無しさん:2014/08/10(日) 13:37:13.26 ID:NMtGnpLo
改善とは?

56 :デフォルトの名無しさん:2014/08/10(日) 14:36:14.55 ID:vHA1jMYS
SFか

57 :デフォルトの名無しさん:2014/08/10(日) 23:24:09.60 ID:Y8CpSJq3
>>54
データを特定すれば、それについてだけは高速化はあると思うが
それ以外に適用できないだろうから、利用価値は高くないだろうね。

ちなみに、本格的なソートプログラムは、データにより自動で
アルゴリズムを変えるような仕組みで高速化が図られているよ。

58 :デフォルトの名無しさん:2014/08/12(火) 03:17:07.74 ID:ZSjG8L1B
ここで聞くべきかわからないが質問させてくれ。
学ぶためのキーワード的なものを教えてほしい。
今までJavaで自力でゴリゴリプログラムを書いていたんだが、いい加減世に出回ってるものを使おうと思って色々調べていた。
そこで、SparkというHadoopの上位互換みたいなものがあるらしく使ってみようと思って落としてみたんだが、
Documentation見ても使い方がさっぱり分からん。
そもそもHadoopを全く使ったことがない上に、ライブラリとかもApachecommonsのMathくらいしか使ったことない。
そのため、Sparkがどんなものかもあんまり理解できていない。。IDEに突っ込んだらそのクラスが使えるような外部ライブラリ的なものではないのか?
そこで文頭に戻るが、そもそも何から勉強すればいいのか分からないので、キーワード的なものを教えてほしい。
それをググったり本を探したりして学んでみるつもりなので。

59 :デフォルトの名無しさん:2014/08/12(火) 03:22:43.55 ID:SdMH8q09
馬鹿には無理

60 :デフォルトの名無しさん:2014/08/12(火) 06:07:53.85 ID:x15U6ZTp
ここで聞くべき話ではないね

61 :デフォルトの名無しさん:2014/08/14(木) 01:07:25.18 ID:q1H0Af2x
>>58
amazonで「機械学習」で検索して出てきた本を10冊ぐらい買いまくれ
ただし
「パターン認識と機械学習」(通称PRML)
「統計的学習の基礎 ―データマイニング・推論・予測―」
この二つだけはやめておけ

62 :デフォルトの名無しさん:2014/08/14(木) 04:19:36.79 ID:tw7DkFhU
>>58
カルマンニューロ法を先に勉強しなされ
第三世代と第二世代のミッシングリングだ

63 :デフォルトの名無しさん:2014/08/22(金) 21:30:17.18 ID:wB2SrjRz
使えって上から命令されない限り、まなぶ必要のないもの

64 :デフォルトの名無しさん:2014/08/22(金) 21:57:03.28 ID:tz1SyhmE
学習能力と意欲が機械未満って事ですか?

65 :デフォルトの名無しさん:2014/08/23(土) 00:12:50.33 ID:rS5gMmQG
IBMがまた何か作ったみたいだけど

66 :デフォルトの名無しさん:2014/08/23(土) 01:10:53.87 ID:0A4fPJIR
>>63
ぶっちゃけ研究者にでもならない限りパッケージの使い方以上のことを勉強する必要はない
PRML勉強会とか開いてる奴らは箔をつけたいだけだから
データの前処理が効率的に行えるようにperlでも勉強した方が100倍役に立つよ

67 :デフォルトの名無しさん:2014/08/26(火) 00:57:41.01 ID:HceknJsN
今から覚えるとしたら
maxima と R のどちらがお勧め?

68 :デフォルトの名無しさん:2014/08/26(火) 01:02:47.42 ID:6Y3Z5P79
>>67
python

69 :デフォルトの名無しさん:2014/08/26(火) 14:09:07.33 ID:B98QovzZ
>>67
Rでいいよ
pythonは物好きが使う

70 :デフォルトの名無しさん:2014/08/26(火) 14:37:33.56 ID:SGyrz07w
>>67
この辺でも参照しとけ
ttp://readwrite.jp/archives/2534
ttp://hennohito.cocolog-nifty.com/blog/2013/12/ruby-matlab-r-p.html
ttp://chezou.wordpress.com/2014/01/18/科学計算における均質化、あるいはなぜpythonが着実/

71 :67:2014/08/26(火) 15:53:40.51 ID:uHaNdHKI
>>68ー70
レス、ありがとうございます。m( _ _ )m

ちょこっとしたサンプリングでテストして
本番では自作のライブラリで行う、
というスタイルなら、Rとpythonのどっちが良いのだろう?

(ちなみに、C/C++とJavaで高速化のための機械学習の
自作ライブラリがあるし、必要に応じて作成するくらいは出来る)

心はややpythonに揺れてます。

72 :デフォルトの名無しさん:2014/08/26(火) 16:04:57.92 ID:JJIhhHvk
>>71
使うデータによる。webのクロールとか画像ぶち込むなら
python有利

73 :デフォルトの名無しさん:2014/08/26(火) 17:07:37.69 ID:3s20pOrE
>>71
Cとかのプログラミングができるなら、
pythonのほうがいいんじゃね?

それほど敷居高く無いだろうし。

74 :デフォルトの名無しさん:2014/08/26(火) 19:55:35.39 ID:YfiVBpmi
Rのほうが研究よりでPythonは実用向けと聞いたことがあるような
ほんとかな?

75 :デフォルトの名無しさん:2014/08/26(火) 20:36:57.08 ID:AL26taMW
統計処理はRのほうが有利と聞いてるが

76 :デフォルトの名無しさん:2014/08/26(火) 20:39:02.78 ID:blvMC+5x
具体的に何が有利かを調べて書いて呉

77 :67:2014/08/26(火) 21:56:08.84 ID:GHlHEtOD
目的が手法のテストと、データのプロッティングなので
比較検討した結果、どちらも同じような機能を提供していたので
簡単そうな python を掘ることにしました。

レスを頂いた皆様の御助力、ありがとうございました。
m(_ _)m

78 :デフォルトの名無しさん:2014/08/27(水) 01:42:13.93 ID:SAfS5G3A
最近色々調べてる。
Rを使ってて(Pythonも簡単なプログラムは組める。)
randomForestとh2oとcaretを試してるところ。

色々調べるとチューニングする方法が良くわからない。
ramdomForestパッケージにはtuneRFと数調節でチューニングする方法をネット上でみつけて
その方法を試してみる予定。

caretの方もネット上でチューニングする方法が記載されてるサイトがあって
そこの真似したらちょっと予想精度があがった。
しかし本当にその方法が良いのか良くわからない。
パラメーターの検索範囲をグリッドであたえてるんだけど
その与え方がトライアンドエラーで、グラフで可視化して
このあたりが良さげってところを選んでやってみた。

ようはチューニングする方法が良くわからない。

良いサイトあったら教えてください。
あるいは良い本があれば教えて欲しい。

caret 等パラメーターの決め方
http://tjo.hatenablog.com/entry/2013/09/02/190449

caret本家のパラメータチューニング関係の文書
http://topepo.github.io/caret/training.html

79 :デフォルトの名無しさん:2014/08/27(水) 01:47:01.05 ID:ocWpZBHt
GUI必要ならMATLABになんのかな?
てかこの前久し振りにmathworksのホムペみたら個人向けにはかなりお安くなってたのね
本体一万ちょいとか数年前までだったらありえんよな

80 :デフォルトの名無しさん:2014/08/27(水) 01:47:27.93 ID:SAfS5G3A
いろいろ調べたら
RandomForestが性能良いっていうサイトがいくつかみつかった。
Deep Learningがコンテストでブッチギリっていうサイトがいくつかみつかった。

向き不向きがあるんだろうけど、どっちが性能良いことになってるの?

gbmが良いっていうサイトもあったし。例としてはsvmを使ったものが多い。

irisデータでやってる範囲ではあまり差がないんだけど
性能一番良いのはDeep Learningで良いのかな?

ようなどの手法が今一番性能良いことになってる?
向き不向きについても知りたい。知ってる人いたら教えてください。

81 :デフォルトの名無しさん:2014/08/27(水) 01:52:55.52 ID:SAfS5G3A
計算結果がでてくるってことでブラックボックスとして
あつかってしまってる。

原理を詳しく知ってた方が、特徴(向き、不向きとか)とかも理解しやすいだろうし
調節方法についても理解しやすいとか、上手く調節できそうな気がしてます。

原理がわかりやすく解説されてるサイトとか
文献とか教えてください。

特に知りたいのは、RandomForest, Deep Learning, SVM, GBM (ネットでみてて性能良いっていう種類については知りたい)
よろしくお願いします。

82 :デフォルトの名無しさん:2014/08/27(水) 01:54:29.39 ID:SAfS5G3A
>>79
フリーソフトの性能があがってるからじゃないの?
Rの方が良いように思うけどな。
RでもRcmdrとかRStudioとか使えばGUIっぽくなるよ。

速度もRcppつかえば爆速になるし。

Juliaが爆速らしいじゃん。LLVMつかっててJITで動くらしい。

83 :デフォルトの名無しさん:2014/08/27(水) 02:00:54.08 ID:SAfS5G3A
>>67
両方使えた方が良いと思う。
利用先がまったく違うと思う。

Maximaと平行してPython+Sympyも勉強した方が良いと思う。
使い方はほぼ同じ。 Sympyの方がC言語のコード生成の機能が優れてると思う。
(数式を関数にする機能。Fortranにもできたはず。Python関数にもできたかな?)

RもOctave とかScilab, 速度が爆速って噂のあるJuliaとか似たソフトあるので
平行してこれらの使い方を調べると理解しやすいように思う。

機械学習関係で使うなら R と Python+パッケージ かな。
Maximaではやりにくいと思う。遅いし機械学習用のパッケージあまり見たことない。
(探せばあるのかもしれんが)

84 :デフォルトの名無しさん:2014/08/27(水) 05:12:01.16 ID:KHfeegfr
>>80
俺の経験上だけどdeep learningは画像データみたいにfeatureベクトルの次元間に強い相関があるような場合
じゃないとそこまで大した性能は出ないよ。
しかもめちゃくちゃ大量にあるハイパーパラメータをどうチューニングするのかでとても頭を悩ませる。
なので仕事で使うときは結局random forestばっか使ってるよ。
random forestはあんまハイパーパラメータチューニングしなくてもそこそこ性能出ちゃうし
OOBエラーとかvariable importanceとか出せて使い勝手いいし

85 :67:2014/08/27(水) 12:01:31.56 ID:FYiSOLH5
レス、ありがとうございます。m( _ _ )m
参考にさせて頂きます

86 :デフォルトの名無しさん:2014/08/27(水) 13:13:34.28 ID:X+IJGqth
>>84
情報ありがとうございます。
OOBエラーってのは知らないワードなので調べて勉強します。
Deep Learning最強じゃないんですね。
Deep Learningのチューニング方も調べなおしてみます。そんなにパラメーター多いんだ。

random forest はツリーの数ともういっこのパラメーターが重要で、tuneRF ( RのrandomForestパッケージの関数) 使うとチュウニーングできる的なこと書いてあるサイトありました。

random forestのチューニングは、この2つのパラメータ調整だけで良いものなんでしょうか?

87 :デフォルトの名無しさん:2014/08/27(水) 15:24:56.03 ID:imWdWAeC
機械学習使って逆アセンブルする研究ない?

88 :デフォルトの名無しさん:2014/08/27(水) 15:51:13.75 ID:KHfeegfr
>>86
deep learningは現時点では最強に近い手法かもしれないが得意不得意がある
不得意な分野だと誤識別率10%が9.5%になったとか、そんなレベルでしか改善されない
だったら0.5%は捨ててもっと使いやすい手法を使ったほうがよい

あとdeep learningのハイパーパラメータチューニングはグリッドサーチよりランダムサンプリングがよいという話がある
http://conditional.github.io/blog/2013/09/22/practical-recommendations-for-gradient-based-training-of-deep-architectures/
しかし既存のパッケージには実装されてないのでランダムサンプリング部分は自分で書く必要がある

random forestはtuneRFでチューニングするだけでいいよ
ていうか一つの手法にこだわるより複数の手法を試して、場合によっては多数決とかしたほうがよい

89 :デフォルトの名無しさん:2014/08/27(水) 16:41:22.81 ID:imWdWAeC
コンボリューションニューラルネットのほうがdeeplearningより上

90 :67:2014/08/27(水) 17:02:26.10 ID:VLjqI4g4
Maximaとsympyの使い分けがよく分からない…
CGIにおける、PerlとRubyとPythonの使い分けみたいなものか?

91 :デフォルトの名無しさん:2014/08/27(水) 17:13:58.71 ID:JWD8sD13
>>88
情報ありがとうございます。
deep learningはランダムサンプリングの方が良いのですね。
caretパッケージはどうやってチューニングすることになってるのか確認してみます。

randomForestの方もtuneRFとツリー数でチューニングしてみます。

現在使い方とチューニング方法を調べてる段階で小さいデータにしか試してない段階です。

ありがとうございます。

92 :デフォルトの名無しさん:2014/08/27(水) 17:14:49.68 ID:JWD8sD13
>>89
それも調べてみます。Rのパッケージになってるかな?
caretのなかに手法としてはいってればテストしやすいんだけど。

93 :デフォルトの名無しさん:2014/08/27(水) 17:19:00.03 ID:JWD8sD13
>>90
基本的に同じ用途のソフトだけど、
希望の操作がむつかしかったり、希望のかたちにもっていくのが
やりにくかったりしたら、もうかたほうでやるとすんなりできたりする。

理解も似たソフト複数勉強した方かわかりやすような気がしてる。
ちょうど外国語複数勉強した方がわかりやすいとか聞くよね。
似てるから基本部分は、2つ使い方調べたり勉強すのは手間2倍よりずっと少ない手間ですむ。

Maximaの方が自然な書き方できるような印象がある。
SympyはC言語のソース出力機能が優れてると思う。

94 :デフォルトの名無しさん:2014/08/27(水) 17:33:09.76 ID:JWD8sD13
>>88
色々な手法の多数決もやってみます。
情報ありがとうございます。

95 :デフォルトの名無しさん:2014/08/27(水) 17:45:05.39 ID:lYE35cZB
結局何もやらないという事なんだろうな…

96 :デフォルトの名無しさん:2014/08/27(水) 18:06:54.93 ID:JWD8sD13
>>95
失礼だna。
randomForestと、svmはなんとかチューニングのやり方は調べて最適かどうかは別にして精度あげることはできるようになってる。
あと1つチューニングある程度できる手法ができたら多数決できる。

97 :デフォルトの名無しさん:2014/08/27(水) 18:14:18.39 ID:ocWpZBHt
>>95
自分で調べもせずに聞くだけ聞きまくる奴に限って結局は何もしないんだよな
これまでの歴史が物語っている

98 :デフォルトの名無しさん:2014/08/27(水) 18:26:41.61 ID:JWD8sD13
>>97
一応調べまくって、サンプルデータでは
まがりなりにも認識率あげれるとこまできたんだけどな。

その方法よりもっと良い方法があるのか知りたいんだよね。
チューニングに関する情報ネット検索してもあまりヒットしないんだよね。

99 :デフォルトの名無しさん:2014/08/27(水) 18:33:07.05 ID:JWD8sD13
>>89
色々 Convolutional Neural Network でネット検索した。
まず Convolutional Convolutional Neural Network がどんなものかも理解できてないんだけど、
優勝したのは deep Convolutional Neural Network になってた。
deep learning パッケージってのは Convolutional Neural Network を使ってるものなの?
deep learningにもいろいろあって、その中の Convolutional Neural Network を使った手法でコンテストかなんかで優勝したってこと?

最近試してdeep learningができそうなのは Rのcaretパッケージとh2oパッケージなんだけど。
これらはどんな Neural Network をつかってるのか知ってたら教えて。

caretパッケージの手法一覧には Convolutional っていう文字はないんだよね。
http://topepo.github.io/caret/modelList.html

100 :デフォルトの名無しさん:2014/08/27(水) 18:36:25.37 ID:JWD8sD13
>>97
詳しそうな君。
中身を理解せずにブラックボッスとして使うのは良くないと思うんだよね。
基礎がわかりやすい本とか、ウェブサイト知ってたら教えて。

101 :デフォルトの名無しさん:2014/08/27(水) 22:41:58.25 ID:u9z4TXud
Conv netも多層であればdeep learningに含まれる。そもそもDeep learningにはモデルが多層である事以外に明確な定義はないから89のコメントはあまり意味がない。

Conv netは画像の特徴量の位置不変性をたたみ込みによって実現している。実装例はTheanoのdeep learning tutorialが参考になると思う。Theanoのたたみ込み関数を利用している。画像以外のデータなら役に立たないかもしれない。

102 :デフォルトの名無しさん:2014/08/27(水) 22:46:44.07 ID:sWLZW0su
中身の動作を詳しく知らずに使うものは多数あるだろ。概念と結果だけでいい。

103 :デフォルトの名無しさん:2014/08/27(水) 23:01:23.84 ID:WL61mMtp
deeplearningよりCBNのほうがずっと古いし、他にも多層のニューラルネットはdeeplearning以前からあるぞ

104 :デフォルトの名無しさん:2014/08/27(水) 23:04:05.37 ID:dkbFeeKd
中身を知らずに使うってのがどこまで許されるのかは状況に依存する。
例えばただテレビを見るだけなら、
電磁気と電磁波の振る舞いや放送波のプロトコルやデコードアルゴリズムは知る必要は全くない。
結論:テレビを見るだけのやつは致命的に無知。

105 :デフォルトの名無しさん:2014/08/27(水) 23:09:34.38 ID:KHfeegfr
論文を書く必要がある研究者以外は中身知る必要ないんだよ
それ以外でグダグダ言ってるのはお勉強が無駄になって悲しいガリ勉君のポジショントークだから

106 :デフォルトの名無しさん:2014/08/27(水) 23:55:19.95 ID:0U9cB9lv
>>105
今はブラックボックス状態なんだよね。
これは良くないと思うよ。
原理と仕組みくらいは最低限理解しとくべきだと思うよ。
チューニングするとか使うときにも関係してくると思うけどな。

107 :デフォルトの名無しさん:2014/08/27(水) 23:56:10.96 ID:0U9cB9lv
>>101
詳しい解説ありがとう!
中々検索してもわからないことを教えてくれる人がいることは
非常にありがたい。

108 :デフォルトの名無しさん:2014/08/28(木) 01:19:44.71 ID:dV0/6Kfi
中身の詳細を知る必要はないけど動作原理を抑えておくと手法を比較検討する時に役立つし、パラメータチューニングのときに直観が働く。流石に原理が全く分からないものは安易に使えない。

あと、確かにConv netは1990年代からある。もっと前だったかも。その時から多層だったんだけど、学習が上手く行くのはたたみ込みで情報を上手く抽出出来たからだという考察が何処かにあった気がする。

対して、一般の多層NNは、RBMやAEによる特徴量抽出によって、誤差が入力層まで伝わらないというBPの問題が解消されて、ある程度実用的に使えるようになった。

最近はmaxoutやReLUなどの、BP誤差が消えにくくなるという活性化関数を使う事で、事前の特徴量抽出無しに多層NNを学習出来るらしい。

109 :デフォルトの名無しさん:2014/08/28(木) 09:46:16.36 ID:VZ7WOW4q
CBNは20年前くらいからだ

110 :デフォルトの名無しさん:2014/08/28(木) 10:41:53.96 ID:0Nu3C6qz
>>108
またまた詳しい解説ありがとう。
知らないキーワード満載で検索がいがあるよ。
ありがとう!

111 :デフォルトの名無しさん:2014/08/28(木) 10:43:12.95 ID:0Nu3C6qz
前のスレも読んでみたんだけど、Maximaで機械学習してる猛者がいるみたいだね。
式とか原理を理解してるんだろうな。
Maximaに機械学習用のパッケージないよね。

112 :デフォルトの名無しさん:2014/08/28(木) 11:01:02.70 ID:kOJtqPYB
拡張モジュール追加可能


Maximaの拡張モジュール(渡辺吉田理論の実装)
http://technodeal.co.jp/p.html?p=MATH-2

113 :デフォルトの名無しさん:2014/08/28(木) 11:55:46.84 ID:0Nu3C6qz
>>112
ネット検索ちょっとしてみたけど、機械学習用の拡張モジュールもヒットしてなかったよ。
公開されてる機械学習用の拡張モジュールある?

114 :デフォルトの名無しさん:2014/08/28(木) 13:02:35.60 ID:kOJtqPYB
>>113
初期装備だけで、特異値分解はできるようだが。
あとMaximaでロード可能かしらないが、Lispの機械学習ライブラリ。


load(lapack);
load(eigensys);
m: matrix([0.123,0.456,0.789],[0.456,0.789,0],[0.789,0,0]);
dgeev(m,true,true);
dgesvd(m,true,true);
http://ynomura.dip.jp/archives/2009/02/9.html
http://highmt.exblog.jp/14099221



Common Lisp Machine Learning Library
https://github.com/mathematical-systems/clml

115 :デフォルトの名無しさん:2014/08/28(木) 18:05:16.38 ID:0Nu3C6qz
>>114
それだとMaximaで機械学習してることにならないじゃん。
原理と数式を把握してて、Maximaで処理系を書いてる猛者じゃないのか?

116 :デフォルトの名無しさん:2014/08/28(木) 18:20:54.49 ID:GNoNGU2t
マゾかよ

117 :デフォルトの名無しさん:2014/08/28(木) 18:34:36.35 ID:0Nu3C6qz
http://sacsis.hpcc.jp/2013/files/sacsis2013_ml_okanohara.pdf

を読んでみた。手法よりデータ量の方が賢い判別にきくって書いてんね。

118 :デフォルトの名無しさん:2014/08/28(木) 18:37:27.00 ID:0Nu3C6qz
原理、しくみを求めてネット検索してみた。

http://tjo.hatenablog.com/category/%E7%B3%9E%E3%82%B3%E3%83%BC%E3%83%89%E3%81%A7%E9%A0%91%E5%BC%B5%E3%82%8B%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%82%B7%E3%83%AA%E3%83%BC%E3%82%BA

や、ここからのリンク先に自分でソフトを書いてみるリンクがあって
ここを良く読めば俺みたいな機械学習に関係ない勉強しかしてきてない者でも理解しやすそうな文書になってた。

ド素人がわかりやすい原理や仕組みを説明した資料とかサイトとか動画知ってたら教えてください。
英語の動画でも良いので。

119 :デフォルトの名無しさん:2014/08/28(木) 18:54:56.65 ID:0Nu3C6qz
machine learning video
でネット検索してみた。検索上位にあったのが Stanford の動画。

part1 から part20までのURL 20時間かよ!
https://www.youtube.com/watch?v=UzxYlbK2c7E
https://www.youtube.com/watch?v=5u4G23_OohI
https://www.youtube.com/watch?v=HZ4cvaztQEs
https://www.youtube.com/watch?v=nLKOQfKLUks
https://www.youtube.com/watch?v=qRJ3GKMOFrE
https://www.youtube.com/watch?v=qyyJKd-zXRE
https://www.youtube.com/watch?v=s8B4A5ubw6c
https://www.youtube.com/watch?v=bUv9bfMPMb4
https://www.youtube.com/watch?v=tojaGtMPo5U
https://www.youtube.com/watch?v=0kWZoyNRxTY
https://www.youtube.com/watch?v=sQ8T9b-uGVE
https://www.youtube.com/watch?v=ZZGTuAkF-Hw
https://www.youtube.com/watch?v=LBtuYU-HfUg
https://www.youtube.com/watch?v=ey2PE5xi9-A
https://www.youtube.com/watch?v=QGd06MTRMHs
https://www.youtube.com/watch?v=RtxI449ZjSc
https://www.youtube.com/watch?v=LKdFTsM3hl4
https://www.youtube.com/watch?v=-ff6l5D8-j8
https://www.youtube.com/watch?v=UFH5ibWnA7g
https://www.youtube.com/watch?v=yCqPMD6coO8

caltech のコース
https://www.youtube.com/watch?v=mbyG85GZ0PI&list=PLD63A284B7615313A

120 :デフォルトの名無しさん:2014/08/28(木) 19:21:39.21 ID:0Nu3C6qz
今stanford の動画を30分程みたけど、最初のビデオの最初の30分は見る必要ないな。
プログラム課題もでるみたいで MatlabかOctaveでやるらしい。
Matlab持ってないからOctaveでやろう。どこまで見れるかな。

もうちょい短かい簡単な良いビデオ知ってる人がいたら教えて下さい。
ちょっと長すぎるな、このビデオ。有り難いけど。

121 :デフォルトの名無しさん:2014/08/28(木) 22:05:22.62 ID:9dseui6f
色々上の動画の資料を探してて
上の動画の資料をみつけた。
http://cs229.stanford.edu/materials.html
しかしエクセサイズの答と問題のpdfファイルのリンクが切れてた。
さらに探すと以下を発見。こっちの方がわかりやすいかも。
http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=MachineLearning

122 :デフォルトの名無しさん:2014/08/28(木) 22:24:52.93 ID:vhjMe5hX
>>117
それはそうだよね。
データ量が少ないから面倒な数学を使って推定するわけだから。
大数の法則。
データマイニングが統計に比べて数学的に優しくて済むのは、
データ量が大量にあると仮定するから。
ところが逆に、大量にあることにより、統計ではすべて有意になってしまう
場合があり、意思決定としては、どっちを採用したらよいか悩むことにもなる。
そこで距離のような考えも導入される。
まあ、いろいろあら〜ね、ということですね。

123 :デフォルトの名無しさん:2014/08/28(木) 22:44:40.76 ID:9dseui6f
>>122
情報ありがとうございます。
データが大きければ、また別のデメリットが発生するようですね。
またネット検索してみます。
先にスタンフォードの動画を頑張って耐えれる範囲でみてみる予定。

*** その他 スタンフォード動画の補助資料URL情報
1つめのスタンフォードの動画の01:02:00 すぎにあらわれるMatlabコードでネット検索したら
良いサイトみつけました。
http://www.holehouse.org/mlclass/index.html
http://stackoverflow.com/questions/20414667/cocktail-party-algorithm-svd-implementation-in-one-line-of-code

124 :デフォルトの名無しさん:2014/08/28(木) 22:46:40.15 ID:wWKXD6ik
機械学習は幅ひろい。まんべんなく知ってることはなく、やる必要・目的があったら調べて使えればいい。

125 :デフォルトの名無しさん:2014/08/28(木) 22:52:24.95 ID:9dseui6f
>>124
チューニングしたくて色々調べたのですが、
チューニングのパラメータ選びがいきあたりばったり。
ネット検索した例をみても、その範囲でなぜやってるのかとか
調整方法について理解しにくかったんです。

機械学習ソフトをブラックボックス的にあつかって、データの与え方
パラメーター調節に使う関数の使い方を知ってるだけに限界を感じました。

まったく基礎もなにもないので、基礎を勉強してしくみがわかれば、パラメーター調節とか
どの手法を使うべきとかが理解しやすくなるんじゃないかと言うことで
基礎を勉強したくなりました。

もっとボリュームが少なく、基礎的なことがまとまってる、初心者にもわかりやすいサイトとか動画知りませんか?
量がおおすぎるんですよね今見ようとしてる動画は。

126 :デフォルトの名無しさん:2014/08/28(木) 23:00:04.99 ID:wWKXD6ik
具体的なチューニング内容はたとえばどんなの?

127 :デフォルトの名無しさん:2014/08/28(木) 23:17:17.98 ID:9dseui6f
>>126
最近やったのは(というか最近、機械学習のパッケージをさわりはじめた初心者)
Rのcaretパケージを使ってSVMとgbmを使った手法のチューニング説明のサル真似と、
caretを使ってディープラーニングする時のチューニング手法サルマネです。

一番最近やってる途中のサルマネはcaretを使ってのgbmで、動画が以下

https://www.youtube.com/watch?v=7Jbb2ItbTC4
その資料が以下です。
http://static.squarespace.com/static/51156277e4b0b8b2ffe11c00/t/5310d223e4b0d21c529a0814/1393611299730/webinar.pdf

パラメータ、その他のチューニング方法の設定がどうきめられてるのかわかりません。
もし他の問題に適用する場合、どうそれらを設定したら良いのかまったくわかりません。

128 :デフォルトの名無しさん:2014/08/28(木) 23:17:20.31 ID:vhjMe5hX
>>123
これは非常に重要なポイントなんですよ。
たとえば、なぜ平均値を推定するか、それはデータが少ないから、信頼できる値が確率的に
しか得られない。
もし、データが恐ろし大きければ、推定すらいらなくなる。平均値の推定値でなく平均値が得られる。
データマイニングの一番の基本と醍醐味はここにあります。
言い換えれば、使い方により、難しい数学にとらわれずに、データを観察することができる。
要はわかりやすく、統計解析の素人でもわかるというアプローチが考えられるんです。
勿論、すべてそういう上手く行くわけではなく、かんがえの基本ですけど。
判別の場合、それが統計的に厳密な結果を必要とされるのか、そうでないのかにより
取るべき手法は変わりますが、大容量データでも分けてゆくと小さくなってしまうことになります。
こういった場合、データ量が多い部分は、エイヤーの手法で分け、小さくなったら信頼性との
関係で、分布を仮定する統計手法を使うとか、いろいろ考えられます。
実務上では、業務のルールや法律上の決まりから、恣意的に強制的に分割をかける必要も
出てきますし、分析過程で入れてはいけない変数(説明は省略しますが)などがあります。
勝負は、多くが手法以外のところにあるんですよ。
ネットのデータや、計測データなどではそういうのはないですけど。

129 :デフォルトの名無しさん:2014/08/28(木) 23:19:49.06 ID:9dseui6f
>>128
良い情報ありがとうございます。
非常に良いことを教えてもらって非常に得した気分です。
ありがとうございました!

130 :デフォルトの名無しさん:2014/08/28(木) 23:24:55.91 ID:vhjMe5hX
そういってもらえると、私も得した気分。
年数だけが長いもので

131 :デフォルトの名無しさん:2014/08/28(木) 23:29:42.24 ID:9dseui6f
>>126
その前にやったのがRのcaretパッケージを使ってのSVMの調節でした。
girdをデフォルトオプションじゃなく与えることによって
結果の精度は良くなったのですが、トライアンドエラーで
適当にパラメーター決めて学習させて。
学習結果をグラフでみて、このあたりかなっていう範囲をgirdで与えて学習を繰替えして、ちょっと精度良くなりました。

非常に適当な調整方法でした。

お手本のサイトから、その調整方法の範囲をどう決めてるのかわからなかった。(多分書いてなかったと思います。)
SVMのパラメーターもちょっとマシな調整方法についても知りたいと思ってます。

あと同じグリッドをあたえて調節しても、採用されるパラメータが異なってました。(乱数要素があるためだと思うのですが。)

素人の適当な調整方法じゃなく、もうちょっとマシな調整できるようになりたいのですが、どうするのが良いのでしょうか?

132 :デフォルトの名無しさん:2014/08/28(木) 23:30:43.23 ID:9dseui6f
>>130
本当にありがとうございます。
ネット検索してもそういう重要な記述みたことなかったので
本当に教えていただけて良かったです。
今後ともよろしくお願い致します。

133 :デフォルトの名無しさん:2014/08/28(木) 23:33:20.99 ID:9dseui6f
>>126
その前がrandomForestで、それに関してはパラメーターの決定方法について説明があったし
そのパラーメータ調節の方法についても詳しく書いてあったので
わかりやすかったです。

ただ、内容がわかってなくてブラックボックス状態で使うのは良くないってのを
分野はまったく違うのですが何度か経験してて、基礎はおさえておきたいって考えてます。

134 :デフォルトの名無しさん:2014/08/29(金) 11:46:25.59 ID:i2NI57Uz
word2vecって極限まで次元を減らすっていうアルゴリズムだろ
一次元じゃだめなのかね?

135 :デフォルトの名無しさん:2014/08/29(金) 11:50:22.03 ID:nAYg79ey
一次元でもいいが、多次元のほうが正確に分類できる。

136 :デフォルトの名無しさん:2014/08/29(金) 17:53:18.07 ID:i2NI57Uz
正確とは?
次元は低ければ低いほど良いのでは?

137 :デフォルトの名無しさん:2014/08/29(金) 17:57:14.83 ID:nAYg79ey
一次元より二次元。横軸(一次元)しか判断基準がなければ、次のブロックは同一となる。


たとえば

□□□



□□□
□□□




□□
□□□

138 :デフォルトの名無しさん:2014/08/29(金) 18:06:43.01 ID:JF5lqIUA
例えば株に勝つ機械学習で良いのは何?
ま、可変パラメータを全て与えられたら正解に近いものがぇるんだろうけど

139 :デフォルトの名無しさん:2014/08/29(金) 18:16:32.37 ID:oJ439gwE
>>138
過去データで検証したら良いじゃん。
プログラムは人がつくってくれてるし、とりあえずデフォの学習で
パラメーター調節なしと
パラメーター調節ありでやってみれば?

140 :デフォルトの名無しさん:2014/08/29(金) 20:09:10.40 ID:pcfhRnKp
>>138
他人に聞く時点でお前が損害を抱えて
退場する姿が見える

141 :デフォルトの名無しさん:2014/08/29(金) 20:33:16.54 ID:nAYg79ey
株価予測はランダムウォーク理論によると、
チャート・価格分析では予測不可能(ウィーク型)、
全ての公開情報でも予測不可能(セミストロング型)、
未公開情報も含めた全ての情報でも予測不可能(ストロング型)、
が成立するようだ。
インサイダーとかでも儲けられるとは限らないってのがストロング型で現実でも成り立ってると思われる。

142 :デフォルトの名無しさん:2014/08/29(金) 20:38:38.22 ID:nAYg79ey
すべての情報があらゆる種類の証券価格に瞬時に反映されるという仮説を「効率的市場仮説」と呼び、資産運用の理論的背景である現代証券投資理論(MPT)はこの仮説を前提にしています。


効率的市場仮説については、証券価格に反映される「利用可能なすべての情報」をどのように考えるかによってウィーク・フォーム、セミストロング・フォーム、ストロング・フォームの3種類の効率性に分けられます。


ウィーク・フォームの効率性は、過去の証券価格の変動と将来の証券価格の変動は独立であるとする「ランダム・ウォーク」の考え方です。

ウィーク・フォームの市場では、チャート分析のように過去の価格情報に基づく分析だけでは市場を継続的に上回る投資を行うことはできないことになります。

セミストロング・フォームの効率性は、過去の価格情報だけでなく、公表されているすべての情報が証券価格に織り込まれているという考え方です。

セミストロング・フォームの市場では、価格情報や公表情報を活用することによってだけでは市場を継続的に上回る投資を行うことはできないことになります。

ストロング・フォームの効率性は、価格情報、公表情報に加えて未公開の内部情報もすでに証券価格に織り込まれているという考え方です。

ストロング・フォームの市場では、たとえ内部情報を持っていても市場を継続的に上回る投資を行うことはできないことになります。

http://dictionary.goo.ne.jp/leaf/pension/%E5%8A%B9%E7%8E%87%E7%9A%84%E5%B8%82%E5%A0%B4%E4%BB%AE%E8%AA%AC/m0u/

143 :デフォルトの名無しさん:2014/08/29(金) 21:17:56.10 ID:zSOx7Ia5
>>137
次元を無限大とすればどんなものも判別できるようになるが、学習の影響力は無限小となる
次元を1とすれば判別力が最小となるが、学習の影響力は最大化される

144 :教えて リンク・ジャンプ:2014/08/30(土) 02:32:51.25 ID:rXlqw18x
>>93 SympyはC言語のソース出力機能が優れてると思う。

横からですいませんが、Sympy での C言語のソースを出力するコード例を示してもらえますでしょうか。
そのような URL への link だけでも助かります。よろしくお願いします。

Googling してみたのですが見つけられませんでした。

145 :デフォルトの名無しさん:2014/08/30(土) 02:37:49.75 ID:lis/SV3x
http://stackoverflow.com/questions/22665990/optimize-code-generated-by-sympy

146 :教えて リンク・ジャンプ:2014/08/30(土) 05:19:17.17 ID:rXlqw18x
>>145 さん ありがとうごさいました。

from sympy.utilities.codegen import codegen

こんなのが sympy にあるなんて知りませんでした。もう少し、これで遊んでみます。

147 :デフォルトの名無しさん:2014/08/30(土) 05:59:12.54 ID:Mff0sEg0
>>146
本家のマニュアルでは
http://docs.sympy.org/latest/modules/utilities/codegen.html
本家のマニュアルトップ
http://docs.sympy.org/latest/index.html

148 :デフォルトの名無しさん:2014/08/30(土) 18:10:22.38 ID:Mff0sEg0
スタンフォードの動画みかかって止まってるんだけど
http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=MachineLearning
の方が要点まとまってて良さげ。
スタンフォードの講義の動画の方は長すぎる。
先にopenclassroomのをみてからの方が良いように感じた
講義の動画をみるなら。

149 :デフォルトの名無しさん:2014/08/30(土) 18:27:53.55 ID:FDr4RXqe
講義動画より文書のほうがよくないか。

150 :デフォルトの名無しさん:2014/08/30(土) 18:44:49.58 ID:+HjlB5Jq
俺も文書のほうが好きだわ

151 :デフォルトの名無しさん:2014/08/30(土) 18:57:27.23 ID:Mff0sEg0
>>149 >>150
良い文書ある?
スタンフォードの授業の文書をまとめたサイトはあるけど。

152 :デフォルトの名無しさん:2014/08/30(土) 19:15:13.18 ID:FDr4RXqe
講義動画でプログラムとか機械学習が上達できるとおもう根拠がわからん。
実装するとか、手計算するとか、手で式の確認するとかしないと上達できるように思えない。
人によるだろうが。

153 :デフォルトの名無しさん:2014/08/30(土) 19:16:15.91 ID:Mff0sEg0
>>152
基礎としくみを知りたいんだよ。
今はブラックボックス状態だから。上にも書いたけどな
基礎を知りたい理由は。

154 :デフォルトの名無しさん:2014/08/30(土) 19:20:59.66 ID:FDr4RXqe
孫正義とかビル・ゲイツとかの講演・動画みて、
日本一・世界一の経営者になれると思い込むのと同等ではないか。
動画では細部まで解説されてない場合がほとんどだろ。

155 :デフォルトの名無しさん:2014/08/30(土) 19:35:28.94 ID:Mff0sEg0
>>154
最初から文書読むの辛いだろ。
動画だと楽。
文書でも良いのあったら読むけど、お前らもしかして基礎知らんのじゃないのか?
俺と同じブラックボックス状態なんじゃないだろな?

156 :デフォルトの名無しさん:2014/08/30(土) 19:37:27.89 ID:FDr4RXqe
基礎・概略はwikipediaみたほうが速いし確実だし不明な部分は検索したらいい。

157 :デフォルトの名無しさん:2014/08/30(土) 19:40:49.49 ID:Mff0sEg0
>>156
基礎にたちかえろうとしたのはgbmのパラメータ調節例を
他の事例にたいしてサル真似不可能って思ったからなんだけど
どうやってパラメーター調節してる?
パラメーターはデフォ派?

158 :デフォルトの名無しさん:2014/08/30(土) 20:06:16.21 ID:mGD4LW5G
判ってるでしょうけど、そういうビデオと紙ベース資料、どちらも長所短所あるよね。
講義を録画したビデオでは、概要であっても、とくに重要な点を強調してくれることがおおい
特筆すべき点は、論文にはない、さじ加減的なテクニックなどの話が出ることがあるという点
これは、紙ベースではお目にかかれない(ただし、そういう講義が常にあるわけじゃないけどね)。
講義ビデオの場合、学ぶべき詳細は各自が資料として持っているという前提に立っているので
ポイント抑えるにはいいと思う。

私の場合の一番の問題は、スタンフォードで良い講義ビデオがあったとしても、英語がだめだ〜〜〜
あと、この分野で進んでいるヘルシンキ大学なんかだと、ビデオもなさそうだしね。

159 :デフォルトの名無しさん:2014/08/30(土) 20:32:36.72 ID:q03rNkzX
別に好きなほうやりゃいいだろ
子供じゃないんだから勉強法ぐらいてめえで考えろや

160 :デフォルトの名無しさん:2014/08/30(土) 20:35:02.69 ID:tERpCQjM
>>156
wikiは真面目に読んでなかったので読んでみた。
確かにわかりやすい。スタンフォードの動画でみた分ともかぶってる部分があって良かった。
情報ありがとう。

>>158
基礎は勉強しだしたところ。
ブラックボックス状態で使うのは良くないって過去の経験則から。
ブラックボックス状態でも使える状態の方が使えないよりは格段にマシだけど。

過去の経験からすると文書はしんどい。動画は楽。
英語はあまり得意ではないけど、あの程度の英語であればだいたいの内容は理解できるから。
日本語の動画のほうがありがたいけど。

文書でも読みやすいわかりやすい文書あれば読みたいけど、みつけれてないから。
良い文書があれば教えて欲しい。

先にブラックボックス状態でもある程度使える状態になってから基礎勉強するとわかりやすいような気がする。
順序逆だけど。

論文は今のところ調べる予定はない。実際にやってみて調節が必要で、それを工夫すべきってなったら調べるかもしれないけど。

161 :デフォルトの名無しさん:2014/08/30(土) 21:12:44.68 ID:ruSnJNq/
>>160
Wikipedia を Wiki と略さない方が良いよ。それぞれは意味を持っているので。

162 :デフォルトの名無しさん:2014/08/30(土) 21:23:22.24 ID:S580Lbg2
>>161
それはそうだけど。細かいね。

163 :デフォルトの名無しさん:2014/08/30(土) 21:56:15.16 ID:S580Lbg2
他のopencourseをみてたら deep learningのコースもあった。
http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=ufldl

gdbの動画もunixのなかにあって、つかってない便利なコマンドを知れて良い内容だった。
機械学習とはあまり関係ないけど。

164 :デフォルトの名無しさん:2014/08/30(土) 21:57:55.07 ID:S580Lbg2
algebra oneにも機械学習に関係ありそうなのが含まれてた。
http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=algebraOne

165 :デフォルトの名無しさん:2014/08/30(土) 22:12:03.24 ID:Q3qTtKXI
>>162
他の人の活動に敬意を表しないやつはたいてい使い物にならないから

166 :デフォルトの名無しさん:2014/08/30(土) 22:26:32.16 ID:q03rNkzX
おまえも敬意あらわしてないもんな

167 :デフォルトの名無しさん:2014/08/30(土) 22:45:43.95 ID:7sMHTWUn
>>165
批判ばっかしてないで、
良い方法しってるのならアドバイスしてくれよ。
今みてる動画より良い資料あるなら教えるとかさ。

上げあしとりと批判ばっかじゃん。

俺は資料を求めたけどだれも教えてくれないから調べて
良いと思うリンクはってんじゃん。

勉強の状態も、調べたチューニング方法に関するリンクもはったよ。

俺の方法がマズイとはもっと良い方法知ってるなら教えてくれよ。
批判と上げあしとりだけはウザいよ。

168 :デフォルトの名無しさん:2014/08/30(土) 22:55:26.99 ID:FDr4RXqe
おまえがより具体的なやりたいこと、サンプルデータなどアップしたらより詳しくレスできるが。
機械学習全般で、統一的なパラメータ設定法などないだろう。

169 :デフォルトの名無しさん:2014/08/30(土) 23:01:54.78 ID:NywSp5AB
急に加速したな

170 :デフォルトの名無しさん:2014/08/30(土) 23:13:49.65 ID:7sMHTWUn
>>168
今調節方法をマスターしたいのはgbmとdeeplearning。
調整方法を解説した資料みたけど、そのままのサルマネは可能だが
他のデータへの適用は無理な状態。

あとsvmのパラメータ調節も適当にグリッドきって、その結果をグラフにして
次のパラメターふる範囲をきめてる。最初のパラメータ調節範囲の決めかたもよくわからんし
この方法が普通なのかもわからない。
手本にしたサイトには、パラメータ調節範囲をなぜその範囲にしたのか説明がなかった。

randomForestはパラメータ調節の設定方法が詳しく書かれているので
他のデータにも同じサルマネでパラメーター調節できそう。

171 :デフォルトの名無しさん:2014/08/31(日) 01:33:23.73 ID:25o32kyD
この議論は進まんな

172 :デフォルトの名無しさん:2014/08/31(日) 01:54:21.77 ID:IHvb2qNL
このスレは流行に乗りたいど素人ばかりだからな

173 :デフォルトの名無しさん:2014/08/31(日) 03:38:38.85 ID:4Dleen0X
再現できない講演(論文)はインチキですね
判ります

174 :デフォルトの名無しさん:2014/08/31(日) 07:12:07.20 ID:3UDV1h2K
勉強のしかた、仕事の進め方を学ぶ必要がある

175 :デフォルトの名無しさん:2014/08/31(日) 07:29:19.68 ID:eNAZT+RQ
パッケージの使い方だけ覚えた素人こそがコスパ高い生き方
それ以上の存在は仕事では必要とされてない

176 :デフォルトの名無しさん:2014/08/31(日) 08:46:38.24 ID:nryJuwEP
>>173
ソースコードが公開されていない論文の実験結果は基本眉唾
研究者が一人でシコシコ実装してテストもレビューもされていないだろうコードが
バグなく正しく実装されているなんて信じる方が間抜け

177 :デフォルトの名無しさん:2014/08/31(日) 10:14:44.63 ID:ZILjAy1M
>>174 >>175
チューニングはどうしてんの?
デフォルトパラメーターでチューニングはしない派?

178 :デフォルトの名無しさん:2014/08/31(日) 10:25:57.48 ID:nryJuwEP
適当に何通りか振ってクロスバリデーションでもすりゃ十分だろ

179 :デフォルトの名無しさん:2014/08/31(日) 10:34:27.43 ID:ZILjAy1M
>>178
パラメーターのふる範囲も適当なら
完全に機械学習をためしだして1ヶ月たってない俺の適当なやり方と同じだよ。

180 :デフォルトの名無しさん:2014/08/31(日) 11:16:04.00 ID:eNAZT+RQ
>>179
それでいいよ
それ以上のことを学ぶ必要はない

181 :デフォルトの名無しさん:2014/08/31(日) 11:17:14.65 ID:ZILjAy1M
>>180
実は殆どパラメータチューニングしてないだろ。

182 :デフォルトの名無しさん:2014/08/31(日) 11:26:29.64 ID:eNAZT+RQ
>>181
チューニングは経験則だから厳密な理論があるわけじゃない
例えばSVMのハイパーパラメータは対数スケール(0.1, 0.01, 0.001 など)で値を探索してるけど
そうするべき必然性は「いつもそうやってうまくいってる」以上のものは無い

183 :デフォルトの名無しさん:2014/08/31(日) 11:27:31.35 ID:nryJuwEP
研究者で論文書くわけでもないんだろ?それなら適当でいいんじゃね?

パラメータの範囲がずれてたら極大が出なくて端で良くなるだろ。そしたら場所をずらしてやり直せばいい
大幅にずれてて話にならない状況なら、精度そのものがドン底だろうからすぐ分かるだろうし。
あとは応用系の学会論文でもサーベイして似た問題があれば参照して最初の選択で参考にするけど、
それこそノウハウだから一般化はできないんじゃ?って気がするけどな
つか機械学習を実用で使うときって、むしろ生データの前処理のフェーズで勝負が決まっていて
どうやって使いやすい問題に落とし込むかだと思うけどな
パラメータチューニングで真剣に頭ひねらなきゃ動かないアルゴリズムなんて実際の仕事じゃ使わないな
時は金なりだから、時間をかけるならそれに見合った精度向上が欲しいだろ
高度なことやっても結果が微々たる差なら時間=金の無駄

184 :デフォルトの名無しさん:2014/08/31(日) 11:37:05.82 ID:ZILjAy1M
>>182 >>183
情報ありがとう。
パラメーターチューニングは適当で良いみたいってのがわかってよかった。
それでチューニング例にパラメータふる範囲の決めた根拠が書いてなかったのか。

あとそれ以外の処理も重要なものあるってのも参考になった。

たしかにRのcaretパッケージだと、各種調節する設定方法があって
パラメーターチューニングはその一部なんだよね。

185 :教えて リンク・ジャンプ:2014/08/31(日) 11:51:19.40 ID:QsGBqLKj
sympy.utilities.codegen をここで教えてもらったので、お礼も兼ねて二つの machine
learning video lecture の紹介をします。

○下の video lecture は初等的過ぎる部分を含み私には合わないが、合う方もいるだろう。
http://www.youtube.com/watch?v=hxmEUAgfZFw&list=PLFrNWepRa9PMt0CryEsec0Bld12OmWMr9

○下にある video tutorial がよい。Mail address の登録が必要だが、Springer 発行
の教科書までダウンロード可能になるので、登録の価値がある。
https://class.stanford.edu/accounts/login?next=/courses/HumanitiesScience/StatLearning/Winter2014/progress

Yutube に講義のビデオもあるが、公開ではないようなので、イントロダクション講義のみリンクを貼る。
https://www.youtube.com/watch?v=2wLfFB_6SKI#t=56

この leture は英語の聞き取り訓練にも良い。この lecture video の caption は人間
が手で入力している。殆んど誤りがない。二人が交互に講義しているが、一人はクリア
な喋り方なので NHK英語ニュースが聞ける程度の英語力で十分に聞き取れる。一方の崩
れたしゃべり方をするほうは、普通の口語英語の listening 訓練に良い。

186 :デフォルトの名無しさん:2014/08/31(日) 12:29:21.70 ID:ZILjAy1M
>>185
情報ありがとう。さっそく登録しました。
今Youtube動画みてます。字幕ある方が良いですね。

187 :デフォルトの名無しさん:2014/08/31(日) 13:16:47.32 ID:kY+m/tLd
>>176
なるほろ
一理ある

188 :デフォルトの名無しさん:2014/08/31(日) 14:34:30.84 ID:p/iANmLe
>>183
内容からすると殆どチューニングしない派なんじゃないの?
データの前処理重視派?

189 :デフォルトの名無しさん:2014/08/31(日) 14:43:11.19 ID:0aT2mco7
画像のグレー化、シャープ化とかも一連のチューニングの一種だろ。
チューニングは無数にあるだろう。
唯一のチューニング方法があったらそれをコード化して全自動にして処理させたらいいだろ。
そうなっていないものはアルゴリズムにならないからだろ。

190 :デフォルトの名無しさん:2014/08/31(日) 15:10:10.35 ID:p/iANmLe
>>189
学習方法のパラメータ調節は殆どしない派なんだろ。
データの前処理重視してるってことじゃないの?
書き込み内容からするとその理由はそっちの方が影響大きいってことだろ。

どうも学習パラメータ関係のチューニングはやってない雰囲気がただよってる回答が多いだよな。

191 :デフォルトの名無しさん:2014/08/31(日) 15:31:17.05 ID:2zkUjOGw
最近読んだ本では、データの平均を0にしたり、分散を正規化したりといった前処理をするという説明があった。
浮動小数点誤差を考慮した話だとは思うけど。

192 :デフォルトの名無しさん:2014/08/31(日) 15:43:04.88 ID:5rh0udnx
平均0にしとくと分散計算するときの計算量が大幅に減るからでは

193 :デフォルトの名無しさん:2014/08/31(日) 15:46:53.22 ID:eNAZT+RQ
>>191
正規化をしないと精度が激しく落ちる手法がある
例えばニューラルネットワークなど
っていうか正規化もそうだけど、問題を解くためにどういう素性を作るか(これの良し悪しで精度が数十パーセント変わる)
が一番大事で、それに比べたらハイパーパラメータのチューニングは数パーセント変わるだけなので相対的に優先度が低い

194 :デフォルトの名無しさん:2014/08/31(日) 15:50:40.78 ID:p/iANmLe
>>193
なるほど参考になるよ。ありがとう。

195 :デフォルトの名無しさん:2014/08/31(日) 15:55:45.77 ID:p/iANmLe
ということで、このスレの住人は殆ど学習手法のパラメーター関係のチューニングはやってないって認識でOK?
そこに関しては殆どやってないとしか思えん回答ばっかりなんだよね。

196 :デフォルトの名無しさん:2014/08/31(日) 16:04:03.69 ID:0aT2mco7
解く問題に対して、無数にチューニングがある。
たとえば、書庫作成のオプションでも数はあるし、唯一の正解などない。
どのような問題に対してチューニングしたいのか具体例がないことには適切な方法は定まりにくい。

197 :デフォルトの名無しさん:2014/08/31(日) 16:08:42.00 ID:0aT2mco7
書庫作成だけでも、方式やパラメータは無数にある。唯一の正解はない。




7z - Wikipedia
7zとは、コンピュータで使用するデータ圧縮形式およびファイルフォーマット。
対応アルゴリズム
LZMA - 7zの標準
LZMA2 - LZMAの改良版
Deflate - ZIP形式等で用いられる圧縮アルゴリズム
PPMd - Dmitry ShkarinのPPMdHを改良したもの
BZIP2 - BWT(ブロックソート)アルゴリズム



Prediction by Partial Matching - Wikipedia
1984年にJ.G.ClearyとI.H.Wittenによって考案されたデータ圧縮アルゴリズムの1つ。 この改良版が7-zip等に用いられている。
PPMd
RARや7zなどに採用されている、PPMの中で最も速い方式。場合によってはRange Coderに匹敵するほど速い。
それでも圧縮率はそこそこで、十分な圧縮率がある。
PPMZ
PPM系列の中でもっとも圧縮率が高くなる方式。しかし、その分計算量は莫大に増え、実用にならないほど速度が遅い。
亜種で圧縮率と速度を多少改善したPPMZ2が存在する。

198 :デフォルトの名無しさん:2014/08/31(日) 16:15:28.72 ID:p/iANmLe
>>196
チューニング方法として、学習パラメーターとかの設定のチューニングは
やってないってことですよね。
やってる感じもないし、書いてる内容からしてもきかないから意味ないって書いてるし。

他のほうがきくからやってない、あるいはほとんどやってないってはっきり言えば良いと思うのに
なんで濁すの?

199 :デフォルトの名無しさん:2014/08/31(日) 16:42:48.15 ID:0aT2mco7
先に具体的な解析対象がさだまっていないことにはチューニングのしようがない。
機械学習の手法が多数あって、どれが適当か選択することからしてチューニングだろ。
そうでかければ手法は唯一しか生き残らない。
おおまかに手法が決まっても、チューニング対象は定数、関数、アルゴリズム改良などいろいろとありえる。

200 :デフォルトの名無しさん:2014/08/31(日) 17:11:10.61 ID:p/iANmLe
>>199
まだ言うの?
やってないし、やる必要ないって言ってしまってるじゃん。
なんでそんなにムキになるのかわからん。

上でも書いてたじゃん。データの前処理の方が重要だって。
そっちは大きく影響するからやってるけど
学習方法にかんするパラメーター調節はやってないんでしょ?

だいたいどのモデルでも学習のパラメーター調節は可能じゃん。
パラメータの決めかたもないって言ってるし。
適当にふってれば良いって言ってたんじゃないの?

やる必要ないっていう判断してるんだよね。
もしそういう必要があるとしてもレアケースってことだよね。

あまりやってないからそこの部分は詳しくないのになんで実例を欲しがるのかわからん。

201 :デフォルトの名無しさん:2014/08/31(日) 17:14:06.34 ID:p/iANmLe
>>199
こっちは本当の初心者だから、やろうとしてた学習方法のパラメーター設定があまり重要じゃなくてやってないなら
それも貴重な情報なわけだから
ほとんどやってないならやってないって情報は貴重なんだけど。

書いてる内容からすると、やってる雰囲気もないし、書いてる内容も重要じゃないって書いてるし
パラメーターも適当にふるしかないって書いてるじゃん。

こっちはまったくなにもわかってないから。重要じゃないしあまりそこは調節してないならそれを教えてくれた方がありがたい。

202 :デフォルトの名無しさん:2014/08/31(日) 17:21:30.58 ID:0aT2mco7
素人すぎるぞ。
唯一の機械学習の手法をマスターしたらなんでも解析可能と思ってる素人だろ。

203 :デフォルトの名無しさん:2014/08/31(日) 18:21:11.84 ID:3UDV1h2K
>>200
2chで多少の煽りで理性を失うなんて耐性のなさじゃ会社はおろか学校だって通用せんよ。
薄々気づいているだろうけど、データマイニングのパフォーマンスチューニングなんて
実装全体からみればごく一部にしかすぎない。
もちろん単体でのチューンはするだろうけど、全体の性能に与える効果は一部なので
大体の所で落ち着けばよく、多くの時間を費やすのは無駄。

経験的に一番パフォーマンスに効くのは処理対象に対するアルゴリズムの選択。
次に解析対象のデータの素性を理解することと、その前処理、特徴抽出をどうするか、
性能の評価指標を何に取るか、質がいいデータを継続的に得る仕組み作り。

進め方でもステップ毎の出力を確認して妥当性を検証しないと誤りに気づかないままになる。
そのためには中で何をしてるかの理解は必要。

いいデータを手に入れるためにはユーザと協力は欠かせいのは当然だが、業務を自動化
してユーザのパフォーマンスがどう良くなるかや、そのための仕組み、性能の評価のしかたを
キチンと説明して協力を得ないと上手く行かない。
現場に出向いて話をしたり、改善効果の定量化と報告・レビューなんかは自分でやらなきゃ
ならない。 つまり『何を最適化』するかだが、お前はツールしか見てない気がするよ。

204 :デフォルトの名無しさん:2014/08/31(日) 18:27:03.34 ID:IHvb2qNL
とりあえず長文は読む気がしない

205 :デフォルトの名無しさん:2014/08/31(日) 18:29:07.59 ID:IHvb2qNL
とりあえず斜め読みしたけどユーザって誰だよwwって話だ

206 :デフォルトの名無しさん:2014/08/31(日) 18:30:23.07 ID:IHvb2qNL
一企業の論理を話されても困るわ

207 :デフォルトの名無しさん:2014/08/31(日) 18:34:11.78 ID:mUy+UvZA
フィルタはチューニングじゃなくてモデルあてはめだから次元削減

208 :デフォルトの名無しさん:2014/08/31(日) 20:45:07.45 ID:6PTqVyaM
>>203
ほとんどが学生のようなんで、対象データが自動で上がるネットだとか
POSあるいは、計測データ、あとはせいぜい、ネットなどの通販データが主だと思う。
教える側の教員も、そういったデータ以外の適用場面のけいけんはないのが実情なので
データマイニングというより、あくまで機械学習による自動化という側面じゃないと
理解してもらうのは難しいと思う。

適用結果により、それを行動に起こすのが、人なのか、単にコンピュータ上で自動化だけで
良いのか、それにより、使える手法と、まるきり無力な手法が存在するが、ここでは、単に
コンピューター上の自動化という面でしか理解は無理だと思うよ。

209 :デフォルトの名無しさん:2014/09/01(月) 02:04:28.02 ID:bPa0tOdz
このスレに来た初心者向けに例題・サンプルを用意しておいて適切な処理が行えるか確認出来るようにしておくといいと思った。

210 :デフォルトの名無しさん:2014/09/01(月) 07:55:59.06 ID:zQucGkuf
>>203
笹井さんは煽り耐性あったとは思えないのに
なんであそこまで逝けたんだろうね
研究の価値あり

211 :デフォルトの名無しさん:2014/09/01(月) 09:19:27.65 ID:1dbz1+C5
>>209
このスレにいるの殆どが初心者じゃないのか?

212 :デフォルトの名無しさん:2014/09/01(月) 13:09:06.96 ID:M+43kzRw
>>211
きっと209はプロだから色々聞こうぜ

213 :デフォルトの名無しさん:2014/09/01(月) 20:48:58.16 ID:vKCiLxc4
ロト6データマイニングして予測しようぜ

214 :デフォルトの名無しさん:2014/09/01(月) 21:00:06.25 ID:N9zhpxlh
乱数をデータマイニングしても無意味だろ。

215 :デフォルトの名無しさん:2014/09/01(月) 21:05:13.43 ID:BpfMkPKh
ロト6より競馬やろうぜ
http://www.amazon.co.jp/dp/4274078922

216 :デフォルトの名無しさん:2014/09/01(月) 21:19:09.92 ID:bPa0tOdz
競馬も株も解析成果を評価しずらい。
1億人いれば、分析なしでも連勝しつづけて億万長者になるのもいるだろう。
それと解析の上乗せがあるのか、ないのかどう評価するんだ。

217 :デフォルトの名無しさん:2014/09/01(月) 21:27:04.30 ID:UpmZB18/
過去データの一部を使って法則を調べて、
残りのデータで検証すれば良いじゃん。

俺の知りあいの統計に詳しい教授(すでに他界してるけど)が
株で大儲けしてた。統計の知識をいかしたかどうか知らんが。

218 :デフォルトの名無しさん:2014/09/01(月) 21:27:53.54 ID:UpmZB18/
ちなみに数十年前の話なので、
そのころにはデータマイニングとか機械学習とかない時代。

219 :デフォルトの名無しさん:2014/09/01(月) 21:35:44.97 ID:sJlbKbKC
そしてネットも普及してなかった時代。
今みたいにチャートすらまともに描くのがむつかしかった時にその教授は大儲けした。

220 :デフォルトの名無しさん:2014/09/01(月) 21:41:45.59 ID:bPa0tOdz
株に法則なんてないと思うがな。
大株主が株を一斉に売りに出したら値下がりするだろうが。
たとえば、家が火事で燃えて新築に金が必要とか、心臓移植に金が必要とか
まったく株と無関係な理由で売り買いが発生する可能性がある。そんなのは予測できない。
9・11や3・11でも株・国債・通貨の大きな変動があったが、地震予測・テロ予測も組み入れるのか。

221 :デフォルトの名無しさん:2014/09/01(月) 21:45:52.01 ID:Jg7sEmQ+
>>220
しかし勝って大儲けしてるやつがいるからな。
完全な乱数ではないと思うよ。

222 :デフォルトの名無しさん:2014/09/01(月) 21:47:31.16 ID:Jg7sEmQ+
>>221
継続して勝ってるやつね。
乱数でも参加者が多いと勝つやつでてくるとか言いだしそうだから。
チャートみたら完全な乱数じゃないのわかるよ。
参加者がテクニカルに従ったり、法則にしたがって取り引きするから。

223 :デフォルトの名無しさん:2014/09/01(月) 22:28:36.06 ID:M+43kzRw
適当に1/2で20回賭け続けて勝つ奴も100万人に1人いるんだけどな

224 :デフォルトの名無しさん:2014/09/01(月) 22:46:33.15 ID:dChEQWzB
>>223
まず相場が完全な乱数じゃないのからわかれよ。
実際に金かけずに体験できる口座ひらけるし。

チャートみてもわかる。完全まよい歩きではない。
他も色々調べてみろよ。完全に乱数にしたがってないことわかるから。

225 :デフォルトの名無しさん:2014/09/01(月) 22:54:36.89 ID:M+43kzRw
【コミュニティの一生】

面白い人が面白いことをする

面白いから凡人が集まってくる

住み着いた凡人が居場所を守るために主張し始める

面白い人が見切りをつけて居なくなる

残った凡人が面白くないことをする

面白くないので皆居なくなる

226 :デフォルトの名無しさん:2014/09/01(月) 22:55:03.69 ID:bPa0tOdz
完全な乱数であってもなくても、適当に勝負して勝ち続ける人間もいるってことだろ。
まったく分析不可能な、完全なランダムとしても10連勝も、100連勝も可能。

227 :デフォルトの名無しさん:2014/09/01(月) 23:09:02.48 ID:vIjHvfbW
>>226
まず完全なまよい歩きじゃないことから理解しろよ。
ろくすっぽ過去のデータ調べてないだろ。

228 :デフォルトの名無しさん:2014/09/01(月) 23:11:38.94 ID:bPa0tOdz
完全なまよい歩きのほうが予測ができず難度が高いがそれでも連勝可能。
予測できる可能性があったにそれ以上連勝可能。
いずれにしても母集団の大きさしだいで連勝可能。

229 :デフォルトの名無しさん:2014/09/01(月) 23:14:25.25 ID:M+43kzRw
なんでランダムウォークを無理やり日本語にしてんの?

230 :デフォルトの名無しさん:2014/09/01(月) 23:17:25.48 ID:jgvpP7H2
>>228
運だけで連勝するのと、
法則を知ってて勝率上げて連勝できるのでは意味がまったく違う。

そもそも勝つのに連勝する必要ないんだよ数学的に。
勝つために満すべき条件があって、その条件をクリアすれば良いだけ。

運が良いだけが株とかで勝てると思いたいようだが、それは違うよ。
完全な迷い歩きじゃなく、いくつかのしたがう確率が高い法則があるんだよ。

まず思い込みじゃなくて、過去データ調べてみろよ
まず完全なまよい歩きじゃないことは簡単にわかるよ。

法則があればその法則を利用したら勝つ条件をみたせるから。

科学的じゃないだろ。思い込みだけで言いはるのは。
おまえよりは俺はデータ調べてるからな。
お前は調べてないだろ過去データを。

231 :デフォルトの名無しさん:2014/09/01(月) 23:29:40.24 ID:bPa0tOdz
たとえば、9割方アルゴリズムトレードの市場だとしても、その全てが株価を予測できて勝てるなんてことはない。
災害もテロも予測は困難だし粉飾決算も予測困難だし、孫正義が完全引退して全株式売却するのも予測困難。

232 :デフォルトの名無しさん:2014/09/01(月) 23:40:49.52 ID:7zGKMaJA
>>231
全てを予想は無理だよ。そこまでの法則性はない。

ただ完全な迷いあるきでもない。ノイズがなくて完全な法則にのっとって動いてるって言ってないだろ。
完全な迷い歩きじゃないって言ってんだよ。

まず勝てる数学的条件もまともにわかっとらんじゃないか。
連勝する必要はないんだよ。勝率2割でも1割でも勝てる条件がある。

233 :デフォルトの名無しさん:2014/09/01(月) 23:42:00.03 ID:7zGKMaJA
>>231
お前も理系なら、過去データをせめて調べてから主張しろよ。
完全になにもわかってないし、調べてもないのマルダシなんだよ。
たんなるお前の思い込み。

234 :デフォルトの名無しさん:2014/09/02(火) 00:05:31.98 ID:PuKfM9OL
この盛り上がりはわくわくするな
もっとやれ

235 :デフォルトの名無しさん:2014/09/02(火) 03:11:27.68 ID:JTLuRepu
定量的に示せ

236 :デフォルトの名無しさん:2014/09/02(火) 10:50:21.46 ID:KeZYrMlN
データは簡単に無料で入手できる時代になってるのだから
勝手に確認しろ。

237 :靖国参拝、皇族、国旗国歌、神社神道を異常に嫌うカルト:2014/09/02(火) 14:37:48.51 ID:bK58FbQi
★マインドコントロールの手法★

・沢山の人が偏った意見を一貫して支持する
 偏った意見でも、集団の中でその意見が信じられていれば、自分の考え方は間違っているのか、等と思わせる手法

・不利な質問をさせなくしたり、不利な質問には答えない、スルーする
 誰にも質問や反論をさせないことにより、誰もが皆、疑いなど無いんだと信じ込ませる手法


偏った思想や考え方に染まっていたり、常識が通じない人間は、頭が悪いフリをしているカルト工作員の可能性が高い
,,,,

238 :デフォルトの名無しさん:2014/09/02(火) 14:53:10.42 ID:A7RBCDrg
ID:bPa0tOdzは仮説検定とか知らんのかな。
有意差が出るとか出ないとかを論じればいいだけの話なのに。

239 :デフォルトの名無しさん:2014/09/02(火) 16:19:24.46 ID:dFcv0WDc
>>238
お前よりかなり馬鹿なんだろ

240 :デフォルトの名無しさん:2014/09/04(木) 12:26:08.30 ID:XRHvEN6Y
>>229
江戸川ファンか

241 :デフォルトの名無しさん:2014/09/04(木) 21:56:54.08 ID:FZvbuxEF
営業のため決定木とかrandomForestとかでデータの予測して無理にでも相関係数高めたいんですが
いい方法ないですか??めっちゃ決定木ふかくするとか?過学習になっても構いません。やり方調べてもわかんないです

242 :デフォルトの名無しさん:2014/09/04(木) 22:36:39.01 ID:EHtA7I/a
何をしたいのかわからんが
ハイパーパラメータはデフォルト値でいいからとりあえずrandomForest使っとけ

243 :デフォルトの名無しさん:2014/09/04(木) 22:44:07.34 ID:FZvbuxEF
>>242
解答有難うございます
randomForest最初にやったのですが大体相関係数0.5くらいでとても使えません
同じデータセットで嘘を言わず相関係数を0.7まであげたいです。過学習や方法は
気にしません。

244 :デフォルトの名無しさん:2014/09/05(金) 00:02:02.88 ID:CMBqMH3U
>>243
ノルマあって大変なのはわかるけど
詐欺行為はよくないよ。

実際に良いところあるだろ売ろうとしてる商品に
そこを説明しろ。
そこがライバル商品より性能劣っててもそれは黙っとけよ。
全部正直にいくと自社製品じゃないとか他の方法のほうがずっと良いってことになるだろうから。

245 :デフォルトの名無しさん:2014/09/05(金) 05:10:13.84 ID:irg0i+Z/
それはすごく正論だが
世の中には全く良いとこの無い商品を売りまくる営業がいるのも事実

246 :デフォルトの名無しさん:2014/09/05(金) 05:13:23.77 ID:irg0i+Z/
テストデータと学習データを用意して
テストデータから得られる結果を最大化するモデルとパラメータを学習(探索?)することもできなくは無い

247 :デフォルトの名無しさん:2014/09/05(金) 07:32:43.19 ID:OjndAguo


248 :デフォルトの名無しさん:2014/09/05(金) 08:37:10.88 ID:6rcAgHG7
>>241
分析方法にそれをとるなら、その利点を使わないと意味がないと思う。
営業(人)と仮定すると、最初にやるのは(すでにやっているかもしれないけど)、
分析結果にアクションを合わせるような方策をとる。
そのアクションと営業結果がフィットしていくように最大化を図る。

もし、アクション変更ができないなら、マーケットが固定と考えて、
ここでいろいろ議論されている手法や統計手法を採用した方がいい。

249 :デフォルトの名無しさん:2014/09/05(金) 12:00:12.73 ID:k5/ArKLR
>>245
現在の家庭用太陽光発電とかかな?
環境にも良くなくて、コスト高になっちまう。
本当に詐欺だよね。

250 :デフォルトの名無しさん:2014/09/08(月) 02:20:32.96 ID:P298uFJ/
誰かBNFの手法検証したやついるの?
まだ誰もしてないのは高度すぎるから?

251 :デフォルトの名無しさん:2014/09/08(月) 09:30:20.58 ID:m/nJA+ci
バッカス・バウナのBNFのこと?
BNFの手法検証ってなんだ?

252 :デフォルトの名無しさん:2014/09/08(月) 10:10:06.58 ID:GkAncfkA
2chのコテハンだったBNFだろ
BNFは自分でも運が良かっただけって言ってるから
手法に再現性があったとしてもあそこまで儲からない

253 :デフォルトの名無しさん:2014/09/08(月) 10:16:14.78 ID:kaEhSBtj
最適な、自然言語やプログラム言語の話では?
統計で、統一言語、共通言語を見つけるとか?
株の話か?

254 :デフォルトの名無しさん:2014/09/14(日) 13:50:00.80 ID:DRyo//L5
https://www.youtube.com/watch?v=yp6LIjcZgoQ
>機械学習のPythonライブラリは
>ありまぁす

会場「し〜ん」

おもいっきり外したな

255 :デフォルトの名無しさん:2014/09/14(日) 17:50:46.75 ID:H8vMGcRG
機械学習のアルゴリズムを発展させればさせるほど
人間の存在価値を否定することになる。

256 :デフォルトの名無しさん:2014/09/14(日) 19:02:33.11 ID:fhmAwNnW
機械学習の話じゃなくて機械自体がそう

257 :デフォルトの名無しさん:2014/09/14(日) 19:08:49.82 ID:fhmAwNnW
機械に消費してもらって人間が生産すれば消費と生産が釣り合う

258 :デフォルトの名無しさん:2014/09/14(日) 20:08:24.33 ID:K9vJyN0m
そうなると今度屑人間が無駄って話になってくるよ。
奴隷が機械になるならそれも良いけど、逆転現象が発生すると
機械に人間が淘汰されるSFの世界になるかもね。

会社の仕事も機械の方が上手くできるとか、他のやり方したらもっと効率的とか
やらなくて良いことをやってること多いからな。

役所は全部機械にした方が良いと思う。

機械が政治すれば社会主義の悪いところなくなるだろ。
独裁が怖いからな。ハッカーが機械をのっとるとややこしくなるけど。

259 :デフォルトの名無しさん:2014/09/15(月) 03:29:19.13 ID:PuXt1P2q
機械はエボラに感染しないから浦山C

260 :デフォルトの名無しさん:2014/09/15(月) 03:32:57.87 ID:PuXt1P2q
>役所は全部機械にした方が良いと思う。

役所を擁護する訳ではないが全部置き換えは可能なんだろうか
もちろん置き換え可能な場所を機械化することは大賛成
大半の公務員は職を失うかも知れないが税金の無駄遣いは減る

261 :デフォルトの名無しさん:2014/09/15(月) 06:08:56.39 ID:mls9oHaL
機械を破壊する活動(ウィルスハッカー)がこれから権力を持つ時代が来るんだろうな

262 :デフォルトの名無しさん:2014/09/15(月) 06:20:54.18 ID:r0M/DB/e
>>260
役所は無駄遣いするし膨張しまくる。
今やってる市民サービスの殆どは現状でもコンピューターにおきかえ可能。
民間と競合してる部分は民営化すべき。

工事の仕様書とかはちょっと難しいと思う。
これも発注してしまえば問題ないかもしれないけど
工事の仕様書のチェックとかは難しいな。現状だと。

教育関係は動画コンテンツにして、基本ボランティア。
飛び級可能にして、なにかの判定方法で年度毎じゃなく科目単位で
先にすすめるようにした方が良いと思う。(エリート教育復活)
科目は基礎知識を履修してなくても本人が希望すればそれを取れるようにして欲しいね。

大学も金持ちの道楽にして定期的に表彰するとか賞をあたえるようにして
国が金基本的にださない方向に変更した方が良いと思うな。

263 :デフォルトの名無しさん:2014/09/17(水) 00:19:09.41 ID:GhDzos3V
>>260
人手でやる理由の殆どは、不正防止。
それも"市民"による不正トライ。
理屈では機械化可能だが、役所だけではなく、国内在住者全部に手を入れる必要が出てくる。
マイナンバー制の検討議事録とか読むと、その手の対策の参考になると思う。

264 :デフォルトの名無しさん:2014/09/17(水) 02:25:16.87 ID:B5vXdL5P
大阪市役所の地下なんて、公務員労組が占拠している状態。
それでも橋下は役人を逮捕できない

大阪市役所の地下を、労組が勝手に使う権利を、
誰も認めていないのに、やつらは労組が使う権利があると主張する
しかも、地裁までやつらの権利を認めた
この国はいったいどうなっているんだ?

バスの運転手や教師の年収が800万円とか、そんなアホな!
連中はダニと同じ。
市民が知らんと思って、稼ぎまくっとる

265 :デフォルトの名無しさん:2014/09/17(水) 04:12:35.48 ID:rgCXj/eM
>>264
そういう民間と競合してるところは本来民営化すべき。
そうすりゃ自動的に競争でそんな無茶はできなくなるんだから。

266 :デフォルトの名無しさん:2014/09/17(水) 10:47:33.15 ID:k7ATJ22m
>>264
なるほど
こいつらもグルか
https://www.youtube.com/watch?v=svg_Yi1PntI

267 :デフォルトの名無しさん:2014/09/17(水) 10:57:23.25 ID:yN75Bbla
ありまぁす

268 :デフォルトの名無しさん:2014/09/22(月) 12:54:18.51 ID:GWSKndEJ
sklearn.neural_network.BernoulliRBMって一段のRBMかな?
多段にしてdeep learningやってる人いる?

269 :デフォルトの名無しさん:2014/09/23(火) 23:08:48.81 ID:UInv7efy
俺は競馬に活かしてる。
キミたちもテストデータと戯れてるヒマがあったら南関見たほうがいいぞ。
kaggleなんて低レベルでアホらしく感じるようになるよ。

270 :デフォルトの名無しさん:2014/09/23(火) 23:29:31.68 ID:067MWcZJ
yokkunsの本とかで
decision treeのroot nodeに使われている素性が重要な素性です、みたいなこと書いてあるんだけど
素性の重要度見るだけならrandom forest使った方がいいよね?

271 :デフォルトの名無しさん:2014/09/23(火) 23:35:43.00 ID:067MWcZJ
>>269
どういう素性を使ってるか気になる

272 :デフォルトの名無しさん:2014/09/25(木) 20:34:11.37 ID:POiKJoVF
モデルを遺伝的に持ってるなら、ノンパラメトリックな統計からモデルを推定する遺伝的アルゴリズムがつくれるはずだ
計算量はわからん

273 :デフォルトの名無しさん:2014/09/26(金) 00:16:27.04 ID:FZh1sc0n
日本語でおk

274 :デフォルトの名無しさん:2014/09/26(金) 00:21:53.27 ID:k/b+CkKl
人間の脳は進化してパラメトリックモデルを獲得してきた
それならモデルを推定する遺伝的アルゴリズムがつくれるんじゃないかと

275 :デフォルトの名無しさん:2014/09/26(金) 08:33:17.37 ID:qRtx2rpF
パラメトリックなのか

276 :デフォルトの名無しさん:2014/09/26(金) 09:09:01.49 ID:Si1SH4E1
>>274
不可能。
人間は難しいから虫で試してみれば?

277 :デフォルトの名無しさん:2014/09/26(金) 10:06:00.13 ID:E0qCgAxd
久々来たけどまだこのスレ存在してたのか...

278 :デフォルトの名無しさん:2014/09/26(金) 10:48:47.95 ID:q1A8D93A
【科学】 村田製作所が新型ロボット「チアリーディング部」を発表、10体の女の子が玉乗りをしながら息のあった演技を披露
http://daily.2ch.net/test/read.cgi/newsplus/1411682082/

ノーカット版
http://www.youtube.com/watch?v=NrTZTQklDDM

問題のシーン
http://www.youtube.com/watch?v=NrTZTQklDDM&t=6m30s

プロモーションビデオ
http://www.youtube.com/watch?v=LvNal9yRuz8

おまけ
http://jp.diginfo.tv/v/11-0247-r-jp.php

279 :デフォルトの名無しさん:2014/09/26(金) 20:29:58.76 ID:k/b+CkKl
>>274
でも次元を減らして基底を求める画像のスパース表現は成功してるよね
動的にモデルを変更しているとも言える

280 :デフォルトの名無しさん:2014/09/27(土) 14:27:50.21 ID:i/9pDexs
Rでtopicmodels 使ってLDAやると

Warning message:
In method(x, k, control, model, mycall, ...) :
problem selecting best fitting model

って出るんですけどなにかこのwarning message はどのような時起こるか分かりますか?

詳しい人おしえてーーー

281 :デフォルトの名無しさん:2014/09/27(土) 14:33:03.81 ID:pDAWiR4D
ソースコード嫁

282 :デフォルトの名無しさん:2014/09/27(土) 14:43:50.92 ID:i/9pDexs
読んだけど何いってるかわかんないんですよね

283 :デフォルトの名無しさん:2014/09/27(土) 19:22:30.58 ID:45lKk1xN
まったく詳しくないけど

http://cran.r-project.org/web/packages/topicmodels/vignettes/topicmodels.pdf

みたら 2.4 に Model selection があるし、まずこのあたり真面目に読んでからソース読んだらマシかもよ。

284 :デフォルトの名無しさん:2014/10/10(金) 01:53:57.40 ID:bJWYCkc8
モデルの探索って本当にできないのかな?

285 :デフォルトの名無しさん:2014/10/10(金) 02:08:20.77 ID:mdwxSSub
見たことない

286 :デフォルトの名無しさん:2014/10/10(金) 12:16:00.85 ID:o5w3MsDm
俺が二年間ゴミプログラムを書いている間に、親戚の二歳児は言葉をしゃべり始めた

287 :デフォルトの名無しさん:2014/10/10(金) 12:28:14.91 ID:gvjUrv9U
あと10年ほどしたらゴミプログラムを書き始めるぞ

288 :デフォルトの名無しさん:2014/10/10(金) 14:50:27.35 ID:sYIHgfEb
さらに3年ほどしたら真人間に戻るだろう

289 :デフォルトの名無しさん:2014/10/13(月) 11:09:02.29 ID:7o459LUy
サポートベクターマシンの導入部分で、線形分離可能な対象について最適分離超平面を求めるとこなんだけど
http://statweb.stanford.edu/~tibs/ElemStatLearn/ ←pdf見れる
この本(日本語版読んでる。英語も同じ書き方)の式 4.46 がわからない
β_0 を定義し直してってあるけど、こんな式変形できる?

ちなみに、サポートベクターXaに対してf(Xa)=±1から始める導入ならわかった

290 :デフォルトの名無しさん:2014/10/13(月) 11:10:27.26 ID:7o459LUy
サポートベクターXaに対してf(Xa)=±1から始める導入、は別の本
大抵の本はこっちの説明でした

291 :デフォルトの名無しさん:2014/10/13(月) 15:06:17.02 ID:hhaZLWuf
回帰の定番手法ってなに?
分類はRandomForestでいいんだけど

292 :デフォルトの名無しさん:2014/10/20(月) 15:57:06.64 ID:8BjHcUwz
数学版でも聞いたのですが、こちらの方が適切かなと思ったので、質問させていただきます。

クラスタリング(?)の方法について教えてください。

標本サイズ100のデータが50種類あるとします。そして、この50種類のデータは10グループ、
各グループ5種類に分類されており、グループ内の相関はあるが、グループ間の相関はないと仮定します。
ここで、各データがどのグループに所属するかが未知であるときに、50種類のデータを正しくグルーピング
するアルゴリズムはあるでしょうか?もしあった場合、何種類くらいまで実際に計算できるでしょうか?

293 :デフォルトの名無しさん:2014/10/20(月) 16:05:55.27 ID:zsuzao4F
無い

294 :デフォルトの名無しさん:2014/10/20(月) 16:12:03.21 ID:kHEfqDq0
設定が矛盾してるな

295 :デフォルトの名無しさん:2014/10/20(月) 16:44:52.23 ID:8BjHcUwz
>> 293

うーん、やっぱり難しいですかね。最近のビッグデータ関連の話で何かいい方法があるかなあと思ってたのですが

>> 294
どの辺りが矛盾していますか?

296 :デフォルトの名無しさん:2014/10/20(月) 17:52:37.25 ID:SVFnr5rS
294じゃないけど

>この50種類のデータは10グループ、各グループ5種類に分類されており

>各データがどのグループに所属するかが未知である

297 :デフォルトの名無しさん:2014/10/20(月) 17:53:04.13 ID:mKP0Ue5+
>>295
手順1) 色々パッケージあるからRをインストール
手順2) そいうモデルにしたがうテストデータを複数作成
手順3) 既存のクラスタリングパッケージでそのデータを処理してみて満足いく結果がでるか試す。

だめだったら探す

で良いだろ。頭でっかちすぎ。

298 :デフォルトの名無しさん:2014/10/20(月) 18:09:16.08 ID:8BjHcUwz
>> 296
本当の構造は分類されているが、実際はどの変数がどのグループに分類されているか
分からない状況ということです。

>> 297
変数が少ない場合はそれでいいと思うのですが、変数が多い場合でも使える具体的な手法名を
教えてもらえると助かります。この文献には全然詳しくありませんので。

299 :デフォルトの名無しさん:2014/10/20(月) 18:20:45.13 ID:mKP0Ue5+
>>298
有名な手法はパッケージになってるよ

300 :デフォルトの名無しさん:2014/10/20(月) 22:48:41.78 ID:hIsUOD9I
>>298
pcaやlsaで次元減らしてからk-means使え
あとk-meansは変数に相関あると劣化するから
次元減らす気がなくとも最初にpcaは使え

301 :デフォルトの名無しさん:2014/10/21(火) 17:52:46.39 ID:8NnzuGtn
あまりにも不勉強で申し訳ないですが、質問です。

Stacked Denoising Autoencoderに関して勉強しているのですが、
pre-trainingやfine-tuneやった後に、
全更新せずに、追加分の学習データ・セットを更新するテクニックって、
どこかで解説されてませんでしょうか?
(多分普通に追加したらダメですよね。)

また、DenoisingAutoencoderに関して、
入力にカラー画像(RGBのデータセット)を入力する場合の参考資料はないでしょうか。
Vincent 2008だと、2値前提になっていて、国内の研究論文はだいたい二項分布を使用しているかと思います。
ガウス分布を使ったとしても、RGBのデータセットを表現するには無理があると思うのですが。

どうぞよろしくお願いいたします。

302 :デフォルトの名無しさん:2014/10/21(火) 19:50:57.64 ID:wHeaRTu2
>>291
ロジスティクス回帰

303 :デフォルトの名無しさん:2014/10/23(木) 15:26:27.66 ID:lljVFpby
モンテカルロ法の強みとしてそのシンプルさがあります。
関数がサンプル可能で、適切なPDFの用意ができれば後はそれらの値を用いて平均値を計算するだけで済みます。
そしてもうひとつの強みとして高次元積分に強いことが挙げられます。
むしろモンテカルロ法は、今回の例のような低次元の積分には実際は使われないでしょう。
台形公式などの決定論的な区分求積法は、各次元にNサンプル使うとすると、d次元積分問題の場合にはNd個のサンプルが必要となってしまい、次元が上がるにつれて爆発的にサンプル数が増加してしまいます。
これを「次元の呪い(Curse of Dimensionality)」と呼びます。
モンテカルロ法は次元数に関係なく任意のサンプル数とすることができ、サンプル数を多くとればとる程正確な結果が得られます。
しかしモンテカルロ法には「分散」の概念があり、その収束が遅いという問題があります。
幸いなことに分散を抑え収束を高速化する様々な手法が開発されています。
「モンテカルロ法の分散低減手法」でそれらの一部を紹介します。

304 :デフォルトの名無しさん:2014/10/23(木) 15:33:11.21 ID:RjBQcz8M
モンテは収束が遅いというより
間違った値に収束するイメージだけどな

305 :デフォルトの名無しさん:2014/10/23(木) 16:14:33.74 ID:lljVFpby
レイトレーシングでは成功してる
確率密度関数が既知の場合は強いんだろう

306 :デフォルトの名無しさん:2014/10/24(金) 15:54:58.97 ID:rw4pEUgl
オートマトンの中身を推定するようなアルゴリズムは通常の逆問題みたいなアルゴリズムじゃ無理だな

307 :デフォルトの名無しさん:2014/10/24(金) 18:16:40.55 ID:vvu0+TtJ
>>304
サンプルを多く取れ

308 :デフォルトの名無しさん:2014/10/25(土) 04:56:53.03 ID:SJUwgBZk
「言語処理のための機械学習入門」を読んでみたくらいの素人ですが、
ベイジアンネットワークとマルコフネットワークの事が知りたいです
次に「ベイジアンネットワークの統計的推論の数理」「パターン認識と機械学習」を読んでみようと思ってますが、
他にお勧めの本があれば教えてください

# 過去スレ、過去レスざっと見たんですが、>61で「パターン認識と機械学習」はやめておけと書かれてるけど何ででしょう?

309 :デフォルトの名無しさん:2014/10/25(土) 09:46:52.71 ID:709xv/+H
初めに読む本じゃないって意味かと。自分で読みたくなったら関係ないよ。
もし合わないと思えばオークションにでも出してくれ。

310 :デフォルトの名無しさん:2014/10/25(土) 10:13:34.03 ID:X9P/Fm39
「パターン認識と機械学習の学習 」 ってのもある
http://www.amazon.co.jp/dp/4873101662
これで駄目ならまだ早いかと

311 :デフォルトの名無しさん:2014/10/25(土) 13:57:56.80 ID:SJUwgBZk
>>309
なるほど
そういう意味ならまだ自分には早いかも知れないです
でもとりあえず買っておこうかな…

>>310
星2つって所でちょっと躊躇(というか除外?)してたんですが、
改めて調べてみると「パターン認識と機械学習」の副読本なんですね
「パターン認識と機械学習」買うならこっちもセットで買わないと注文が二度手間になりそう

312 :デフォルトの名無しさん:2014/10/26(日) 11:40:57.91 ID:3FEgqEeU
>>310
そんなクソみたいな本は買うな

313 :デフォルトの名無しさん:2014/10/26(日) 22:37:05.08 ID:vjNnAAfQ
確かに>>310は内輪受けしてるだけの糞本だったな
あと機械学習を使うだけなら別にPRML読まないでいいから

314 :デフォルトの名無しさん:2014/10/27(月) 01:20:38.39 ID:xRV16vnN
その本読んだらデメリットあるのか?

315 :デフォルトの名無しさん:2014/10/27(月) 07:50:41.14 ID:pwRSlHpn
その本の人、勉強好きな人っぽいよね
mp3の人でしょ?

316 :デフォルトの名無しさん:2014/10/28(火) 04:15:28.03 ID:ZPTndCNc
>>301
>全更新せずに、追加分の学習データ・セットを更新するテクニックって、
全更新すべきだけど、実用としては追加更新でおk

>入力にカラー画像(RGBのデータセット)を入力する場合の参考資料はないでしょうか。
255*255*255*width*hight分のビット表現にすればいい。
もしくはグレースケール

317 :デフォルトの名無しさん:2014/10/31(金) 01:45:51.28 ID:kwi41uO9
一つのデータを見て考えるというのは解空間の探索じゃなくてモデルの探索だ

318 :デフォルトの名無しさん:2014/10/31(金) 01:57:48.11 ID:kwi41uO9
式の本数が少ないなら拘束条件を増やすしかない

319 :デフォルトの名無しさん:2014/11/05(水) 13:06:01.56 ID:TFchYdUt
今どきシンプルな論理式を解とする機械学習って需要あんのかな?
ベイジアンネットとか確率論的なほうが注目されてんのに。
命題論理は自動定理証明では成功してるけど、根が統計でできてる機械学習とは食い合せが悪い気がする

320 :デフォルトの名無しさん:2014/11/05(水) 14:37:29.54 ID:9CHVhjJD
OpenCVとか画像処理ソフトじゃ
これのお陰で面白いことできてるような気がするけど。

もっと良いのがあればそちらを取り込んで欲しいけど。

321 :デフォルトの名無しさん:2014/11/05(水) 16:52:32.49 ID:wDhizOXk
Markiv確率場で駄目ならGibbs確率場を使えば良いじゃない
by マリー

322 :デフォルトの名無しさん:2014/11/05(水) 21:43:56.61 ID:FUGVJsx0
>Markiv確率場
Markov確率場

323 :デフォルトの名無しさん:2014/11/06(木) 05:18:32.98 ID:mZOU7mRJ
SVMで時系列分類or予測ってどうすればいいんや?
1試行で1000サンプル得られたら、学習データは1000次元×試行回数(N個)用意しなければならんのか?

324 :デフォルトの名無しさん:2014/11/06(木) 07:06:36.85 ID:W+qWHrkZ
ネット検索しようぜ!検索キーワードは以下かな。ヒットしないなら工夫。
SVM 時系列
SVM 時系列 予想

325 :デフォルトの名無しさん:2014/11/06(木) 07:23:31.50 ID:U77T9Z9P
うわぁ関西人

326 :デフォルトの名無しさん:2014/11/06(木) 11:01:21.78 ID:yWwtn8Qu
わかったわかった。トンキン人は天才ね。

327 :デフォルトの名無しさん:2014/11/06(木) 21:20:27.24 ID:+4UaLCsA
なんでや工藤

328 :デフォルトの名無しさん:2014/11/07(金) 17:51:55.65 ID:SvcXDSdW
Kmeans法について教えてください。観測間の非類似性を測る尺度にユークリッドノルムや、相関係数などが
使えると思いますが、通常のKmeans法は非類似度にユークリッドノルムを使った場合のことだけを指すのでしょうか?
それとも、相関係数を使った場合でも利用可能でしょうか?教科書や講義ノートを色々調べたところ、Kmeansでは
すべてユークリッドノルムを使っているようですが、もし非類似度に相関係数を使った場合でも、ユークリッドノルムを
使った場合と同じアルゴリズムで計算できるのでしょうか?Matlabだとkmeansという関数の中に相関係数を使うオプションがあった
ので、少し混乱しています。

329 :デフォルトの名無しさん:2014/11/07(金) 18:38:17.50 ID:lfJ5/Rhs
クラスタに対する距離で振り分けするアルゴリズムなんだから
距離が求まれば何でも良いんじゃね?
ユークリッド限定なんて決まりは無いと思うけど

330 :デフォルトの名無しさん:2014/11/07(金) 19:25:53.47 ID:SvcXDSdW
>>329

自分もそう思うのですが、有名な教科書Elements of Statistical LearningにKmeansは
ユークリッド距離のときに使われる方法であると書いてあるので、???となったわけです。

331 :デフォルトの名無しさん:2014/11/07(金) 20:07:51.83 ID:DvlzUAf6
kernelk-means method とかは邪道とな

332 :デフォルトの名無しさん:2014/11/07(金) 20:47:08.07 ID:SbQp3GGV
>>330
原書を読んでそう解釈したとしたらお前の間違い

333 :デフォルトの名無しさん:2014/11/08(土) 10:03:10.51 ID:KFvTfo0I
>>332
原著に
"The K-means method algorithm is one of the most popular iterative
descent clustering methods. It is intended for situations in which all variables
are of the quantitative type and squared Euclidean distance is chosen as the
dissimilarity measure"

と明確にユークリッド距離を使うと書いてありますので、この説明を読んだら上に書いたような
疑問を持つのは自然かなと思いますが。もちろん相関係数を使っても問題ないだろうとは思ってます。
勝手に拡大解釈して相関係数でもOKと理解したけど、やっぱり間違えていた、というのを避けたいので、
質問させていただいたわけです。

334 :デフォルトの名無しさん:2014/11/08(土) 10:23:37.48 ID:VT4q2fNP
>>333
疑問に思ったら質問じゃなくて
色々なデータで試す方が良いと思うよ。
頭デッカチすぎるだろ。(俺もその傾向あるけどな)

335 :デフォルトの名無しさん:2014/11/08(土) 10:54:41.37 ID:KFvTfo0I
>>334

いや、すでに色々実験して問題ないことは確認済みなんです。ただ、間違った用語を使って論文
を書くと、後々まで残るので、正確性を期したかったわけです。それにあんなに偉い著者たちが
わざわざそう書くのに、何か理由でもあるのかなぁ?と。

336 :デフォルトの名無しさん:2014/11/08(土) 11:10:56.81 ID:V4kxl14a
>>333
やっぱりアホだ
理由は教えない

337 :デフォルトの名無しさん:2014/11/08(土) 11:32:06.88 ID:bLYoogSK
こういう人もいるんだねえ

338 :デフォルトの名無しさん:2014/11/08(土) 11:39:21.71 ID:KFvTfo0I
教えない、じゃなくて、理由がないから教えられないんじゃないの??
それを教えないって逃げてるのかな?きちんと理由を書かないとそう読まれるよ?

ちなみにデータを基準化したら相関係数はユークリッド距離に比例するっていう理由は無しね!
基準化しない場合もあるんだから。

339 :デフォルトの名無しさん:2014/11/08(土) 18:05:00.34 ID:MSJ2r6Xi
素人の解釈だけども、距離空間上でセントロイドの座標が求まらないと駄目なんでは?

原著でいうと http://web.stanford.edu/~hastie/local.ftp/Springer/OLD/ESLII_print4.pdf
(14.31) の式変形で重心の座標が具体的に求まるってことが k-means では重要なんじゃね?
上の方の人が書いてるカーネル k-means なんかだと、カーネル空間での重心の座標なんてわからないから
クラスタ内の全点間で計算して求めるわけでしょ
それって計算量が変わってるから、数学的な意味は同じでも「アルゴリズムとして」同じとは言い難いと思う

340 :デフォルトの名無しさん:2014/11/09(日) 14:47:03.33 ID:GJ0yzuwr
もしかして京大生?

341 :デフォルトの名無しさん:2014/11/10(月) 16:52:02.27 ID:95/Rzes2
ユークリッド距離を使うのが本来のKmeansでそれ以外はKmeansの亜種ということなのかね。
>>340 地方国立

342 :デフォルトの名無しさん:2014/11/10(月) 18:22:36.88 ID:N/uHWaPu
プログラミング言語がソフトウェアの品質に与える影響
http://developers.slashdot.jp/story/14/11/08/081210/%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9F%E3%83%B3%E3%82%B0%E8%A8%80%E8%AA%9E%E3%81%8C%E3%82%BD%E3%83%95%E3%83%88%E3%82%A6%E3%82%A7%E3%82%A2%E3%81%AE%E5%93%81%E8%B3%AA%E3%81%AB%E4%B8%8E%E3%81%88%E3

343 :デフォルトの名無しさん:2014/11/20(木) 12:38:14.16 ID:AVgM9bDZ
http://wired.jp/2014/11/20/google-image-recognition/

344 :デフォルトの名無しさん:2014/11/21(金) 22:00:47.18 ID:Rlmotcdy
だれかCaffeとか使ってる人いないか?
http://wiki.ruka-f.net/index.php?Caffe
のファインチューニングが全然上手くいかないんだが

345 :デフォルトの名無しさん:2014/11/26(水) 19:44:08.33 ID:+vksO1Sa
VIPとか雑談系の板でのスレ推薦システム作ってください

346 :デフォルトの名無しさん:2014/11/26(水) 21:52:58.77 ID:KPhJuJ6P
計算論的学習理論って既存のアルゴリズムに対して後付けでできてないか?

347 :デフォルトの名無しさん:2014/11/26(水) 21:56:54.77 ID:KPhJuJ6P
一般化じゃなくてただの定式化って感じる

348 :デフォルトの名無しさん:2014/11/26(水) 22:07:50.59 ID:jGVOTHDh
>>345
SNS行ってください

349 :デフォルトの名無しさん:2014/11/26(水) 22:15:19.04 ID:B1YDgHXN
>>345
逝ってください

350 :デフォルトの名無しさん:2014/11/30(日) 20:17:31.26 ID:7yBW/4uQ
フリーソフトでつくる音声認識システムを読み終わったあとに
読む本でいいものってありませんか?
わかりやすいパターン認識は数式がちょっとキツイかったので
その間くらいのものを探してます

351 :デフォルトの名無しさん:2014/11/30(日) 21:05:38.72 ID:2lPI+vtV
>>350
もう一度読み直したら ?

352 :デフォルトの名無しさん:2014/12/01(月) 05:39:11.31 ID:CJ38OmV9
わかりやすいパターン認識みて、ノンパラベイズ実装してみたけど重たい処理だね。
1次元データのヒストグラムがあって、それを分類したいときに、
例えば値10のデータが30個だったら、
30個のデータそれぞれの所属をギブスサンプリングしてるのがよくないような気がするのですが。
結果も、値10に複数のグループが混在して、わかりずらい。

353 :デフォルトの名無しさん:2014/12/01(月) 13:21:19.11 ID:3Y1Jl6D7
わかりにくい書き込みだな

354 :デフォルトの名無しさん:2014/12/11(木) 17:14:16.58 ID:uCIHip0+
ボルツマンマシンって価値あるの?
ベイズ推定で充分じゃね

355 :デフォルトの名無しさん:2014/12/11(木) 22:08:38.86 ID:5ZjSw52+
モデルと原理を比べるなよ

356 :デフォルトの名無しさん:2014/12/12(金) 14:06:36.23 ID:kj6RGsUx
数学的定理!

357 :デフォルトの名無しさん:2014/12/15(月) 16:25:02.61 ID:FvPXIydp
パラメトリックモデルって概念自体が頻度論派の言葉なのに、ベイズをノンパラと呼ぶのは違和感がある

358 :デフォルトの名無しさん:2014/12/17(水) 06:27:01.29 ID:DdxdyuB4
言葉に所有権は無い

359 :デフォルトの名無しさん:2014/12/17(水) 21:03:52.08 ID:FrkiaTR6
国語の勉強しろよ

360 :デフォルトの名無しさん:2014/12/18(木) 11:57:46.56 ID:pcd0s0hu
>>357
どういうこと?

361 :デフォルトの名無しさん:2014/12/18(木) 14:11:33.28 ID:8xbq1XAo
ベイズ派とか昔っからあるのに機械学習ではやったのが数年前からとかいかに情報系が程度が低いかっていう

362 :デフォルトの名無しさん:2014/12/19(金) 12:24:55.97 ID:poewIxS5
数年前w

20年前から活発だったけど?

363 :デフォルトの名無しさん:2014/12/20(土) 19:09:02.20 ID:+PDdQxRb
>>361
そりゃ〜、あなたが知らんだけですわ
ちょっと、恥ずかしいかも

364 :デフォルトの名無しさん:2014/12/21(日) 02:01:28.45 ID:HqG8xly8
361が痛すぎる
高校生?

365 :デフォルトの名無しさん:2014/12/21(日) 09:39:21.10 ID:A1EQ+8ij
おそらく、学校(大学?院?)の指導教員が不勉強で
その下で育った学生だろう。
本当にちゃんと理解してる教員すくないから、そういう誤解も
出て来るってことなんでしょう。

366 :デフォルトの名無しさん:2014/12/21(日) 21:07:15.21 ID:YKqfimei
最先端の人工知能が、Skypeのリアルタイム機械通訳を可能にした
http://wired.jp/2014/12/20/skype-used-ai/

367 :デフォルトの名無しさん:2014/12/23(火) 16:17:47.32 ID:FJYTncmu
>>366
すばらしい情報ありがとう!
知らなかった。
以外とはやかったな。
さっさと安価にサービス提供して欲しいところ。

368 :デフォルトの名無しさん:2014/12/24(水) 14:05:23.25 ID:vWV+Es0b
外人と会話してたら「グーグル通訳を入れろ」って言われたトラウマが・・・

369 :デフォルトの名無しさん:2014/12/24(水) 19:16:54.66 ID:wGhBI2uv
そんなのなくていいから、
女心を通訳してくれる技術はないのか!

370 :デフォルトの名無しさん:2015/01/01(木) 11:06:11.14 ID:dz5fPCT0
スレタイにある統計分析じゃない気がするが新しい技術に関心があればどうぞ。
記事が載った雑誌の方はPDFで観られるがキーワードが要る。(期間限定)

量子力学を応用した、未来のマーケティングシステム「Scanamind」
ttp://wired.jp/2014/12/15/scanamind/

未来を予測するマシン、量子コンピューターの「いま」
ttp://wired.jp/2014/12/29/next-world-01/

371 :デフォルトの名無しさん:2015/01/09(金) 13:48:34.75 ID:tzN2NpVd
ベイズ推定してパラメトリックモデルをつくって精度をあげるというのはどうだろうか

372 :デフォルトの名無しさん:2015/01/09(金) 18:02:40.78 ID:m5hKKjxj
>>370
こいつは胡散臭いよ。よくある固有値解析と同じアプローチ

373 :デフォルトの名無しさん:2015/01/10(土) 08:37:08.80 ID:FdhiEijf
>>371
それは既存のアプローチの再解釈に過ぎないように思えるが

>>372
鈴木一彦多すぎで検索できない
量子力学関係ねえし

374 :デフォルトの名無しさん:2015/01/10(土) 08:54:32.21 ID:8jyfhdtq
めっちゃ胡散臭いωωω

375 :デフォルトの名無しさん:2015/01/17(土) 16:43:42.77 ID:fG9fIK1g
Facebookがディープラーニングツールの一部をオープンソース化
http://jp.techcrunch.com/2015/01/17/20150116facebook-open-sources-some-of-its-deep-learning-tools/

376 :デフォルトの名無しさん:2015/01/30(金) 14:34:43.39 ID:u5MEK7ON
deeplearningって結局、統計学的知見は得られたの?

377 :デフォルトの名無しさん:2015/01/30(金) 17:53:30.18 ID:rs53QiHs
は?

378 :デフォルトの名無しさん:2015/01/30(金) 21:12:27.05 ID:OrLhiRKG
一年前に記事読んだときは結局何を計算してるのかよくわからんって感じだったから
今は何かわかったのかなって

379 :デフォルトの名無しさん:2015/01/30(金) 21:53:46.52 ID:EcZsMLGA
良く分からんけど精度良いとしか分かってない

380 :デフォルトの名無しさん:2015/02/01(日) 06:30:48.19 ID:VS9x/Tlq
主成分分析と一緒で解析する人次第

381 :デフォルトの名無しさん:2015/02/02(月) 13:26:36.80 ID:FhmYp/+4
解析するデータ次第やろ

382 :デフォルトの名無しさん:2015/02/02(月) 15:09:39.70 ID:GZwOlguo
自明のことをわざわざ言う必要はない

383 :デフォルトの名無しさん:2015/02/02(月) 22:37:20.97 ID:7JEkiT3n
LDAのperplexityってトピックの数が大きければ必ず下がるものではないよね??
数学わかんないから誰かやさしく教えてください

384 :デフォルトの名無しさん:2015/02/06(金) 17:39:32.10 ID:vk/v/s7r
次元が高くなると学習が進まないのは
頻度論的に言うとサンプルが少なくなって精度が低下したってことなん?

385 :デフォルトの名無しさん:2015/02/07(土) 07:34:39.04 ID:LUhuqUvX
みなさん機械学習の研究どうやってますか?
4月から機械学習の研究室に配属されますがやり方がわかりません!
調べた感じだとMathlabとかOpenCVとかTheanoを使うのがメジャーな感じでしょうか?

386 :デフォルトの名無しさん:2015/02/07(土) 08:45:32.56 ID:3EMm43Vg
>>385
ツールや手法はごちゃごちゃ有るが、最後はエクセルに回帰する

387 :デフォルトの名無しさん:2015/02/07(土) 10:39:47.07 ID:aXt54veO
>>385
R+Rのパッケージが一番楽だよ
CRAN R
で検索してみ

388 :デフォルトの名無しさん:2015/02/07(土) 10:44:09.46 ID:aXt54veO
可視化機能も充実してるし日本語情報も大学で使われてるから豊富
パッケージも無茶苦茶多く
最新の統計処理もパッケージ化されてること多い

文書も結構しっかりしてるし
ネット検索して情報も豊富

そもそも表で管理するための機能がもともと組み込まれてるし。
データの入出力も1行の命令で可能
可視化は非常に機能充実しててパッケージ追加でさらに楽になる。

エクセルなんぞ面倒くさくてやってられないよ
Rを使い初めると

唯一の欠点は速度面に難があること(自分でプログラム組むとき)
それもC++と連携できるRCppとC++使えば改善は可能

389 :デフォルトの名無しさん:2015/02/07(土) 10:52:55.34 ID:EqoPJgcS
RStudio(IDE)も使うといい

390 :デフォルトの名無しさん:2015/02/07(土) 12:17:13.82 ID:3EMm43Vg
Rは確かに便利だが>>385は初心者だぞ?
いきなりR薦めるなよ。C++ってもうアホかと。

ツール覚える事より、分析慣れする事が第一段階。

俺の場合はESSでRとPYTHON使っているが、提出資料はEXCELでグラフ書き直してる

391 :デフォルトの名無しさん:2015/02/07(土) 12:18:58.82 ID:aXt54veO
>>390
R使ったことないのか?
数行で機械学習処理できるのに

簡単なんだよ

392 :デフォルトの名無しさん:2015/02/07(土) 12:20:16.46 ID:aXt54veO
>>390

R やりたいこと

でネット検索すりゃRでなんでもできるんだよ。

Excelにもっていってる方が難易度高いと思うぞ
ぜんぶRでやれよ

その方がずっと楽

393 :デフォルトの名無しさん:2015/02/07(土) 12:23:25.76 ID:aXt54veO
Excel使うとすれば最初のデータCSV作成くらいだな。
それもOpenOfficeとかLibreOffice使うべき。
こっちは無料で使えるし。

394 :デフォルトの名無しさん:2015/02/07(土) 12:25:58.78 ID:jv4VCfIz
つMathematica

395 :デフォルトの名無しさん:2015/02/07(土) 12:37:38.04 ID:aXt54veO
Mathematica有料ソフトだろ
俺は数式処理はMaximaかPython+Sympyでやってる
無料ソフト最強

396 :デフォルトの名無しさん:2015/02/07(土) 15:29:56.98 ID:PCep9HC+
>>385
論文読みながらガリガリとcでコーディングしてgnuplotに出力するだけでも卒業させてくれたよ
OpenCVやThenoを使うこと自体が何かの研究になるの?

397 :デフォルトの名無しさん:2015/02/07(土) 15:40:07.52 ID:PCep9HC+
統計ってライブラリやパッケージがスグできるし、
蟻本に出てくるalgorithmほど時間掛けて学ぶ価値ないよね
気付いたら何もかも自動化されてシステム化されてるんだ

398 :デフォルトの名無しさん:2015/02/07(土) 15:59:43.26 ID:aXt54veO
C と GNUPLOTなんかよりRの方がずっと楽なんだよな
データ読み込み1行
学習用と検証用データの分割1行
ライブラリの読み込み1行
機械学習1行
プロットに1行
検証に1行

多分6行くらいで処理とアウトプットと検証完了
いろいろ足しても10行くらいだろ

399 :デフォルトの名無しさん:2015/02/07(土) 17:15:07.85 ID:GbXY/X9d
Rでgeta使えるの?

400 :デフォルトの名無しさん:2015/02/07(土) 17:26:01.78 ID:r78KVIL9
>>399
ググレや すぐ調べれるだろ

401 :デフォルトの名無しさん:2015/02/08(日) 00:00:45.59 ID:cqjVArNv
Rってc++から呼べるの?

402 :デフォルトの名無しさん:2015/02/08(日) 00:13:52.82 ID:sberwMHD
>>401
呼べるよ、ググろうぜ!
素直にR使った方が楽。C++と連携するならRからRcpp使うことを勧める。

403 :デフォルトの名無しさん:2015/02/08(日) 00:14:34.88 ID:sberwMHD
>>401
C++からR呼ぶ処理を楽にするパッケージあるからそれ使うとちょい楽。

404 :デフォルトの名無しさん:2015/02/08(日) 00:17:43.79 ID:5C4onH4p
スクリプトからC++を呼ぶほうがいいだろう。
ボトルネックだけ高速化したほうが楽で効果高い。

405 :デフォルトの名無しさん:2015/02/08(日) 00:19:11.75 ID:sberwMHD
まずRだけでやってみて速度面で問題あるかどうか確認した方が良いかも
C++使うよりRだけの方がずっと楽だし

406 :デフォルトの名無しさん:2015/02/08(日) 00:20:07.63 ID:sberwMHD
>>404
Rcpp使った方がスクリプトよりやりやすいと思うけどな

407 :デフォルトの名無しさん:2015/02/08(日) 00:52:46.82 ID:cqjVArNv
いやoctave使ってるんだよ
octaveからc++は呼べるから、c++からRを呼べる方法がいいんだ

408 :デフォルトの名無しさん:2015/02/08(日) 12:42:24.52 ID:sberwMHD
>>407
OctaveをRから呼ぶパッケージもあるよ
OctaveとR似てるしRに移行した方がやりやすいよ
パッケージもOctaveよりずっと豊富だよ

409 :デフォルトの名無しさん:2015/02/08(日) 12:49:56.55 ID:cqjVArNv
画像処理だからなぁ
基本はoctaveのほうがいいと思うんだけど

410 :デフォルトの名無しさん:2015/02/08(日) 12:53:54.35 ID:sberwMHD
>>409
画像処理用のパッケージもR用複数あるけどな
画像処理ならOpenCVが俺は好きだな
RImageっていう今はメンテされてないパッケージが使いやすかった。
一行ソースに追加したらコンパイルインストールできたよ。

あとはImageMagickっていうツール
これでたいていのことできる

OpenCV使うならR->RCpp->C++かな
前探したときにはなかったけどOpenCV用のパッケージもできてるかも。

OpenCV使うならPythonの方が使いやすいかもしれん

RとPythonバイディング用のパッケージもあるし

書くの面倒になってきたのでここまで

411 :デフォルトの名無しさん:2015/02/08(日) 12:56:47.22 ID:cqjVArNv
openCV嫌いだけどc++呼べるなら結局は使えるから
imageMagickは使わないな

412 :デフォルトの名無しさん:2015/02/08(日) 12:59:43.52 ID:sberwMHD
>>411
OpenCV滅茶苦茶好きだけどな面白いよ
使ったことある?

413 :デフォルトの名無しさん:2015/02/08(日) 13:00:35.95 ID:sberwMHD
>>411
最近のバージョンはC++よりになってかなり使いやすくなってる
cv::Mat使うとかなりスマートに書けるよ

414 :デフォルトの名無しさん:2015/02/08(日) 13:37:22.14 ID:cqjVArNv
>>412
あるよ
c++のやつは何がおきるかわからんし明らかにおかしいアルゴリズムもあるので使わない

415 :デフォルトの名無しさん:2015/02/08(日) 13:43:39.89 ID:5C4onH4p
OpenCVの実装は唯一でC/C++だろ。

416 :デフォルトの名無しさん:2015/02/08(日) 13:50:30.18 ID:o2097BwH
>>415
バージョン上ってcv::Mat使用推奨になってんだよ
IpImagehogehoge を使うのが昔の作法。最後にメモリ開放しなきゃいけなかったろ?

417 :デフォルトの名無しさん:2015/02/08(日) 13:51:02.77 ID:o2097BwH
OpenCVよりImageMagickの方が大抵の処理で楽にできるけどね。

418 :デフォルトの名無しさん:2015/02/09(月) 10:42:17.43 ID:IY9ft/8O
みなさんありがとうございました。
やはりOpenCVとかを使うのがメジャーな感じですかね。
C++つらくないですか?
Matlaboや、Javaで使えるらしきEncogはどうですか?

419 :デフォルトの名無しさん:2015/02/09(月) 11:07:18.93 ID:u13wuA66
>>418
全部試したら良いんだよ
どれも似てんだし
それで決めろよ

420 :デフォルトの名無しさん:2015/02/09(月) 11:07:56.79 ID:u13wuA66
>>418
楽なのは絶対Rだよ

421 :デフォルトの名無しさん:2015/02/09(月) 11:15:13.47 ID:iJdyGTL3
python万能ですねわかります

422 :デフォルトの名無しさん:2015/02/09(月) 11:39:19.36 ID:u13wuA66
>>421
Pythonって選択も良いと思う
でもRの方が絶対楽

423 :デフォルトの名無しさん:2015/02/09(月) 21:43:43.69 ID:3TfHYWj8
perl1択

424 :デフォルトの名無しさん:2015/02/10(火) 00:25:26.64 ID:jxT/nOm5
>>422
データ管理を考えなければ、その二つでいいと思う
手法中心ならRが良いんじゃないかな。
両方ともデータが、あるていどDBで管理されていることが
前提とすればだけど。

425 :デフォルトの名無しさん:2015/02/10(火) 00:36:08.48 ID:JI2tI4b+
>>423
遅くて日が暮れないか?
まあその面Rも一緒だけど
だた、それで済む内容なら問題ということなら
選択肢の一つだろうけど。

426 :デフォルトの名無しさん:2015/02/10(火) 00:37:40.65 ID:JI2tI4b+
それで済む内容なら問題ということなら => それで済んでいる問題なら

427 :デフォルトの名無しさん:2015/02/10(火) 00:41:35.56 ID:XXPDVOKj
かなりのパッケージがC++とかで書かれてるよ
速度は思ってるほと遅くならないよRでも
自分で書くと劇遅くなるときあるけど
書き方で速度まったくかわってくるから

428 :デフォルトの名無しさん:2015/02/10(火) 10:50:12.35 ID:VTIhuevF
>>424
データ管理を考えたら、何がいいのん?

429 :デフォルトの名無しさん:2015/02/10(火) 13:08:07.15 ID:XXPDVOKj
>>428
データーベースでも良いけど
テキストファイルが一番楽じゃねーの?
データの持ちかたとか複雑さによるんじゃね?
CSVファイルがスプレッドシートで簡単にあつかえるし
CSVのテキストデータが一番楽じゃないの?

430 :デフォルトの名無しさん:2015/02/10(火) 14:07:43.23 ID:RTRbhZ9b
>>429
自分の業務がその程度で済むなら、それでいいだろうし
Rでもなんでもいいだろ

431 :デフォルトの名無しさん:2015/02/10(火) 14:25:05.16 ID:VTIhuevF
>>429
ありがとう
ただ>>424さんは
データ管理を考えなければその二つ (Python, R) でいいと思う、
と書いていたので、データ管理を考えた場合他に適当な
プログラミング言語があるのかと思い、聞いてみた

432 :424:2015/02/10(火) 14:54:24.15 ID:RTRbhZ9b
>>431
ごめん、無償ソフトを対象にしてそうなんで
それだと候補はないんじゃないかと思うんで、
書かなかった。
あるていどCSVでデータが、そろう程度であれば
その候補で行けると思う。

433 :デフォルトの名無しさん:2015/02/10(火) 15:11:38.83 ID:sFl21ycU
SQLITE3で

434 :デフォルトの名無しさん:2015/02/10(火) 15:14:43.30 ID:RTRbhZ9b
>>433
分析はR、あるていどのデータ管理はSQLITE3とか
めちゃくちゃなデータをCSVなどにそろえるのにPERLとか
そういうのが、こまった君になっちゃうんだよ。
学生や、研究ならいいけどね。

435 :デフォルトの名無しさん:2015/02/10(火) 15:32:47.03 ID:XXPDVOKj
データーベース使いたいなら
PythonでもRでもなんでも
有名なデーターベース用のパッケージあるからそれ使えば良いだけだよ
MySQLとかSQLITE3とかPostgreSQLとか

この3つの中でいちばん手軽なのはSQLite3
俺も手軽だからこの3つの中ならこれが一番すき

テキストファイルでやって
それで不便を感じたらデーターベース使ってみたらどうなの?

436 :デフォルトの名無しさん:2015/02/10(火) 15:43:27.35 ID:RTRbhZ9b
本業抜きで、いくつも覚えるってか

437 :デフォルトの名無しさん:2015/02/10(火) 15:43:28.31 ID:DT8Q2G/U
データーは嫌い
データにして

438 :デフォルトの名無しさん:2015/02/10(火) 15:44:37.10 ID:XXPDVOKj
>>436
これ使わなきゃだめってないだし
好きなようにしたら良いだろ
テキストが一番楽だよ

439 :デフォルトの名無しさん:2015/02/10(火) 16:48:27.52 ID:RTRbhZ9b
>>438
個人ベースで使う分には、なんでも勝手でOK

>>437
でもね、現在の文部省推奨は「データー」にしましょってなっている
らしく、マイクロソフトもそれにできるだけ沿っているらしい。
とはいえ、推奨なんで強制じゃない。

昔は、データ、メモリ、インタプリタ、ユーザだったのが、
現在は、データー、メモリー、インタプリター、ユーザーなんよ。

でも違っても怒られないので好きに使って。

ちなみに、現在の文科省の国語審議会、外国語使用規則で
決まっています。

440 :デフォルトの名無しさん:2015/02/10(火) 16:50:54.21 ID:XXPDVOKj
>>439
仕事でもちゃんと資料のこして
他の人が引き継げるようにしたら問題ねーよ
仕事のデータ全部データベースじゃねーだろ

441 :デフォルトの名無しさん:2015/02/10(火) 16:51:40.16 ID:XXPDVOKj
>>439
お前の会社のやり方が全ての会社のやり方じゃねーから
エクセルばっかのとこもあるよ子会社で

442 :デフォルトの名無しさん:2015/02/10(火) 16:54:52.27 ID:RTRbhZ9b
>>440
事務処理ソフトと同じ考えやね

443 :デフォルトの名無しさん:2015/02/10(火) 16:57:54.59 ID:XXPDVOKj
>>442
担当のヤツが事故で死んでも
残ったヤツが引き継げりゃなんでも良いんだよ
お前は視野狭すぎ

444 :デフォルトの名無しさん:2015/02/10(火) 16:59:18.25 ID:XXPDVOKj
酷いところは担当者が死んだら
引き継ぎ不可能のところもあるけどな

445 :デフォルトの名無しさん:2015/02/10(火) 17:13:52.85 ID:+yudUjsj
管理省庁の経済産業省が「データ」だからなぁ
旧建設省vs文部省の建坪率vs建蔽率or建ぺい率と同じ

446 :デフォルトの名無しさん:2015/02/10(火) 17:30:08.32 ID:RTRbhZ9b
>>445
個人的には、好きに使えばいいと思うんだけど。
経産省の話がでてきたので言うと、そこでは電子商取引の関係で、は厳しくなってきていて、以前からコンピューター、
メモリーに統一されてる。
さらに、統一化は進められている。

でも、自分たちでは混じってんでしょうね。

話は飛ぶが
電子取引で日本は日本で用語統一しないといけないんで
やっているだが、たとえば、車の座席につける幼児用のいす。
「幼児拘束装置」っていうんだよ。
これはオッたまげた。

447 :デフォルトの名無しさん:2015/02/10(火) 18:59:02.94 ID:XXPDVOKj
>>445
客先に収めるなら
担当者の希望を聞いて
その形式でわたしたげろよ

448 :デフォルトの名無しさん:2015/02/10(火) 18:59:28.54 ID:XXPDVOKj
>>446
俺は自分が突然死んでもなんとかなるようにしてたよ

449 :デフォルトの名無しさん:2015/02/10(火) 23:13:02.98 ID:OC8tfwYa
>>432
ありがとうございます
データ管理まで統一して面倒見れるような環境は
無料では勧められるようなのはない、てことでしょうか
有料のってSprunkとかかな、それとも単にExcelとか

>>432
> 幼児拘束装置
ヒドイw
さいきん共通語彙基盤コア語彙なんてのが
公開されてましたが同じような目的ですかねえ
http://goikiban.ipa.go.jp/node756

450 :デフォルトの名無しさん:2015/02/10(火) 23:14:59.31 ID:OC8tfwYa
幼児拘束装置は>>446でした

451 :デフォルトの名無しさん:2015/02/10(火) 23:27:32.30 ID:yCYSfpHb
SASやSPSSしか使えない奴の無能っぷりは異常

452 :デフォルトの名無しさん:2015/02/10(火) 23:32:10.38 ID:XXPDVOKj
Rの楽さを知らんなこいつら

453 :デフォルトの名無しさん:2015/02/10(火) 23:35:24.33 ID:WgeykaVN
>>449
目的によって(もちろんコスト)でもわかれるでしょうけど、
手法研究ならR、特に統計的な面。
テキスト扱いならPerlにRなどの統計ソフトの組み合わせ。
データをそろえからというのは、あくまで業務の世界になってから。
本当に最初から最後「までだと、SASくらいしか選択肢はないと思う。

それで、データモデルや手法が決まったら、データベース化して
すきな言語で手法をつ繰り込めばいい。

あくまで、仕事で行う場合の話ね。

研究段階では、それにとらわれる必要はないですよ。

454 :デフォルトの名無しさん:2015/02/10(火) 23:40:15.16 ID:WgeykaVN
>>449
>さいきん共通語彙基盤コア語彙なんてのが
>公開されてましたが同じような目的ですかねえ


目的としてはそうだと思います

そろってくれば、分析ツールの選択肢増える。

455 :デフォルトの名無しさん:2015/02/11(水) 00:05:21.25 ID:UaxIFmoa
>>449
私の処理で紹介しておくと、Cじゃないと無理な加工とテキスト処理は
主にSASで処理し、マイニング処理や統計手法系は主にRを使ってます。
SASのマイニングツールは使うことはなく、必要時には基本機能で
作成するかRで作成。

456 :デフォルトの名無しさん:2015/02/11(水) 00:08:00.91 ID:UaxIFmoa
ちょっと文言修正

>必要時には基本機能で
>作成するかRで作成。


=>必要時にはSAS基本機能で
作成するかRで作成。

457 :デフォルトの名無しさん:2015/02/11(水) 00:10:12.89 ID:kv+LOhDJ
おまえのことに興味ネーけどな

458 :デフォルトの名無しさん:2015/02/11(水) 00:12:33.88 ID:UaxIFmoa
もう一つ追加。
ここのスレに来る人ほとんどがそうだと思うけど
用意されたマイニング手法は使うことく、自分で。
作るというレベルの場合での話として聞いてください。

459 :デフォルトの名無しさん:2015/02/11(水) 00:21:04.89 ID:1eUi5Fba
>>457
あなたが、どういうのが必要か話せば
だれかが答えてくれるんじゃないか?

460 :デフォルトの名無しさん:2015/02/11(水) 00:36:41.40 ID:gttZPXQI
>>453
>>455
ありがとうございます
私は独学なのでどうしても視野が狭く
なりがちなので勉強になりました

461 :デフォルトの名無しさん:2015/02/11(水) 00:44:49.97 ID:kDsDaCCB
低水準言語で研究なんて人員に余裕があるとこじゃないとできないよ〜

462 :デフォルトの名無しさん:2015/02/11(水) 00:49:05.95 ID:1eUi5Fba
>>461
研究は自分が好きなものでやればいいだけ

463 :デフォルトの名無しさん:2015/02/11(水) 00:51:08.31 ID:1eUi5Fba
実務に入ったら研究じゃ出てこないような複雑なデータに
出会え得るから楽しみにしときなさい

464 :デフォルトの名無しさん:2015/02/11(水) 00:56:56.43 ID:kDsDaCCB
>>462
計算コストが高い研究って結局グーグルみたいなとこじゃないとできないよね

465 :デフォルトの名無しさん:2015/02/11(水) 01:07:39.11 ID:1eUi5Fba
>>464
おそらく、大変大きな勘違いをしてますよ。

466 :デフォルトの名無しさん:2015/02/15(日) 15:49:13.20 ID:7x2qoHTf
randomforestって連続値の変数使っていいの?

467 :デフォルトの名無しさん:2015/02/15(日) 21:35:34.50 ID:hy9IgYO3
>>466
ええべ。

468 :デフォルトの名無しさん:2015/02/16(月) 13:53:04.66 ID:o++XRcKa
dropoutってpre-training時にもユニット抜きますか?

469 :デフォルトの名無しさん:2015/02/16(月) 19:04:07.41 ID:WOe315hy


470 :デフォルトの名無しさん:2015/02/16(月) 21:23:06.36 ID:7zClwhsc
イミフすぎてワロタ

471 :デフォルトの名無しさん:2015/02/17(火) 00:07:12.68 ID:Z83PGDWD
イミフですいません
AEを使ったDeep Learningを実装しているんですけどDropoutでユニットを抜くのはBPを使った全体の学習時とAEを使った層ごとのpre-training時の両方で行うのでしょうか

472 :デフォルトの名無しさん:2015/02/17(火) 00:36:46.25 ID:zUtExSdv
>>471
実績あるパッケージになってるもの使えよ
自分で組むのは信頼性低い
公開されてるものは多くのユーザーでバグ出しされてるし

473 :デフォルトの名無しさん:2015/02/17(火) 06:49:05.74 ID:bI/Xav4M
svmlightってラグランジゅ乗数どうやって求めてるの?
最急降下法?

474 :デフォルトの名無しさん:2015/02/17(火) 09:52:03.34 ID:zUtExSdv
>>473
アルゴリズムもろくにわかってなくて
調べれないようなアホは人の作ってくれたパッケージ使っとけよ

475 :デフォルトの名無しさん:2015/02/17(火) 10:39:36.63 ID:CBC6fLzL
>>474
調べたから聞いてるんだが?
svmlight作者の本買って読んだが既存の手法で解けるとしか書いてなかったんだよ

分かる人いない?

476 :デフォルトの名無しさん:2015/02/17(火) 12:04:32.21 ID:lK0vLXPW
調べろっていうのはソースコードを見ろってことなんだが

477 :デフォルトの名無しさん:2015/02/17(火) 12:22:23.04 ID:1kYivmur
めんどくさいお

478 :デフォルトの名無しさん:2015/02/17(火) 12:31:19.43 ID:NIs8LiDa
>>474
分からなくて答えられないときは、俺みたく黙ってろや!
シバくで、しかし!

479 :デフォルトの名無しさん:2015/02/17(火) 15:45:15.62 ID:zUtExSdv
>>478
そんなことすら調べれんアホは
賢い人でプログラム作るの上手な人が作ったもの
使っとけ!
頭弱すぎ野郎!

480 :デフォルトの名無しさん:2015/02/17(火) 17:46:58.42 ID:bI/Xav4M
(´°̥̥̥̥̥̥̥̥ω°̥̥̥̥̥̥̥̥`)

481 :デフォルトの名無しさん:2015/02/17(火) 18:37:33.08 ID:FAYl36JB
答えた上で言え、と思います

482 :デフォルトの名無しさん:2015/02/17(火) 18:48:35.19 ID:NIs8LiDa
>>479
なにコラタココラ

483 :デフォルトの名無しさん:2015/02/17(火) 19:15:50.11 ID:7HpB5b+x
シバくとかできもしないことをいうのは恥ずかしいと思わないのかね。

484 :デフォルトの名無しさん:2015/02/18(水) 12:13:09.47 ID:Mv0snjOS
>>481
これがゆとり脳か

485 :デフォルトの名無しさん:2015/02/18(水) 12:52:03.39 ID:dLcDO6Hk
>>482
しらべる頭もないのにヒツケーな
アホ学生が宿題か課題のレポートができないよモードか?

486 :デフォルトの名無しさん:2015/02/18(水) 18:23:38.27 ID:mNlNVJ9p
>>485
ま、そんなところだ。色々な人に聴きまくって、なんとか出鱈目なロジック作って切り抜けた。
そのうち公開するから使ってくれよ。

これからもよろしくな!

487 :デフォルトの名無しさん:2015/02/18(水) 18:28:10.87 ID:mNlNVJ9p
結局、縛りの持たせ方がプログラミングと演繹では違うんだよな。ここを理解したら何とかなった

488 :デフォルトの名無しさん:2015/02/18(水) 18:41:53.27 ID:mNlNVJ9p
>>484
正直、きのうはテンパっててゆとり無かった。これからは心にゆとり持って書き込むよ

489 :デフォルトの名無しさん:2015/02/18(水) 19:21:28.40 ID:dLcDO6Hk
>>488
同級生と協力しろよ
なんで孤軍奮闘してんだよ

490 :デフォルトの名無しさん:2015/02/18(水) 19:22:36.94 ID:dLcDO6Hk
>>488
先輩に頼めば過去の情報らえるだろ
高級菓子もっていって情報らえ
それを同級生に配布しとけば
協力者が増える
ほとんど屑で情報あげても役にたたんけどな

491 :デフォルトの名無しさん:2015/02/19(木) 18:37:04.46 ID:60zSF0h7
知ってるなら教えてあげればいいのにい

492 :デフォルトの名無しさん:2015/02/20(金) 02:47:35.06 ID:OClAnqlx
>>491
学校の課題は自分でやるものなんだよ

493 :デフォルトの名無しさん:2015/02/20(金) 07:47:31.48 ID:epA8/MQz
491=小保方予備軍がこんなところにも湧いているのか
早稲田かな?

494 :デフォルトの名無しさん:2015/02/20(金) 16:55:46.52 ID:XB9D2J8d
さっさと教えてやれよボケナスが!!!

495 :デフォルトの名無しさん:2015/02/20(金) 20:20:42.14 ID:4W8e2oTx
>>494
Rのパッケージしか使えない奴に込み入った解析は出来ない!だから、あんまり追い込んでやるなよw

496 :デフォルトの名無しさん:2015/02/21(土) 08:53:24.12 ID:biGU8Wyj
情報があふれてる使うの楽チンなRさえまともに使えないのが
ここのスレの住人

497 :デフォルトの名無しさん:2015/02/21(土) 08:55:03.32 ID:biGU8Wyj
学生のくせに宿題自分でできない
おバカ学生もこのスレにわく
そんな課題に意味なくその過程に意味あるのに
なんでも調べて出来るようになることが重要

その課題自体をやれることに意味ないことにはやく気付けよ

498 :デフォルトの名無しさん:2015/02/21(土) 08:58:11.07 ID:naHue2Us
1999年頃にはもう宿題はネットからコピペでってのが定着してたな

499 :デフォルトの名無しさん:2015/02/21(土) 09:15:26.47 ID:biGU8Wyj
普通に授業うけるか
授業を真面目に聞かなくても
教材まともに勉強したら
できないほうが頭弱すぎなんだけどな

500 :デフォルトの名無しさん:2015/02/21(土) 09:19:20.57 ID:naHue2Us
最近ひどいらしい


日本の識字率は100%じゃない? 男性教諭の実感 2015/2/17 16:00
http://dot.asahi.com/aera/2015021600044.html

じわじわと広がる日本社会の格差。それは教育にも多大な影響を与えている。

「日本は識字率100%ではないのではないか」
関西の公立中学校で社会科を教える男性教諭Aさん(39)は、そんな疑問を持っている。
授業で生徒に教科書を音読させると、漢字をほとんど読み飛ばす。
自分の住所も書くことができない。そんな生徒はクラスに1人、2人ではない。
(略)

501 :デフォルトの名無しさん:2015/02/21(土) 16:34:14.98 ID:86Y68fKQ
それは、奇怪学習の話だな。

502 :デフォルトの名無しさん:2015/02/21(土) 16:41:02.53 ID:L/EXZZOc
だれうま

503 :デフォルトの名無しさん:2015/02/21(土) 17:15:22.43 ID:RZDm92xd
pythonってなんで機械学習で使われてるの?
スクリプト言語だから遅くて機械学習には不利みたいなイメージあるんだけど

504 :デフォルトの名無しさん:2015/02/21(土) 17:56:49.44 ID:3ax201g9
theanoが使えるから

505 :デフォルトの名無しさん:2015/02/21(土) 18:05:04.80 ID:caP+6x4M
>>503
Pythonが好まれるのはプログラミング言語として素性が良く、プログラミングの専門家でなくても使えて
理解しやすく (もともと教育向け)、いろんなライブラリが利用できるからだと思う。スピード面でも
中間言語方式で決して遅いとは言えないだろう。実際、うちではバッチ的な処理でPythonを使ってる。

それに業務全体で考えると、問題領域の認識から始まって、モデリング、データ前処理、コード作成、
シミュレーション実行、結果の評価、報告と言うような人が関わるプロセスを何度も繰り返すので
計算機の上でコードが動いている時間だけで語れない。Pythonは全体としての効率が優れると思う。

506 :デフォルトの名無しさん:2015/02/21(土) 19:12:52.72 ID:biGU8Wyj
パッケージのソースを確認した方が良い
Pythonでパッケージ書かれてるとはかぎらん
C++との連携やりやすいようなパッケージが色々ある
BoostライブラリのPythonバインディングが比較的使いやすい気がする

507 :デフォルトの名無しさん:2015/02/21(土) 19:14:25.33 ID:biGU8Wyj
Python + IPython + 色々
でMatlab的な使い方やMathematica的な使い方が可能になっとる
それに機械学習用のパッケージくみあわせれば...
説明が面倒くさくなってきた

508 :デフォルトの名無しさん:2015/02/21(土) 19:41:53.76 ID:W7t+/4HH
RでrandomForestを使ってるんですけど
baggingの方がノイズに強いらしいのでrandomForestではなくてbaggingをやりたいんです。
randomForestのmtryを限界まで上げればbaggingと同じになりますか?

509 :デフォルトの名無しさん:2015/02/21(土) 20:27:24.61 ID:86Y68fKQ
>>503
基本でかいデータについてはDBを前提としてるので

>>507
組み合わせて使うのは、後々考えても避けたいよね

510 :デフォルトの名無しさん:2015/02/21(土) 20:51:31.03 ID:biGU8Wyj
>>508
やってみろよ
すぐに出来るんだし

>>509
使ってみてから批判しないとね
使いやすいんだし
速度もそこそこ

511 :デフォルトの名無しさん:2015/02/21(土) 21:18:01.88 ID:8T7nI862
いろいろ使わないとできないという人たちは大変だな

512 :デフォルトの名無しさん:2015/02/21(土) 23:28:57.05 ID:biGU8Wyj
>>511
簡単なんだよ
情報あふれてんだし
試せよ
どれもそんなにかわらん
おたがいに真似しとるから

面倒ならRが楽なんだから全部Rでやっとけよ

513 :デフォルトの名無しさん:2015/02/21(土) 23:31:10.52 ID:YiWR5syz
下半身のために活用したいorz
そういうデータは出会い系サイトにワンサカあるのだろうけど・・・・。
アプローチ数がある程度無いと(n>10?)ベイズと言えども厳しいのだろけどorzorz

514 :デフォルトの名無しさん:2015/02/21(土) 23:41:29.47 ID:8T7nI862
>>512
>Rが楽なんだから全部Rでやっとけよ

なんとそれで済む範囲での話してたんだ

515 :デフォルトの名無しさん:2015/02/21(土) 23:47:30.67 ID:v1GyV++i
>>513
自分の官能に勝るものはない!
かも。

516 :デフォルトの名無しさん:2015/02/22(日) 05:30:42.50 ID:xsY5Mggt
しね

517 :デフォルトの名無しさん:2015/02/22(日) 14:31:22.80 ID:NosMaaCv
>>514
それがRのパッケージになってないなら
そのツール選択しろよ
使い方の骨組はほんどかわらん

518 :デフォルトの名無しさん:2015/02/22(日) 14:33:49.45 ID:NosMaaCv
どれも似てんだから
面倒くさがらずに
ちょっと使ってみて比較しろよ

本当情報弱者ばっかだなこのスレ

519 :デフォルトの名無しさん:2015/02/22(日) 14:53:23.06 ID:TfAgRNIZ
Rが直接DBアクセス出来ないってこと?それって変じゃない?

520 :デフォルトの名無しさん:2015/02/22(日) 18:52:18.91 ID:NosMaaCv
できるよ

521 :デフォルトの名無しさん:2015/02/23(月) 01:28:49.99 ID:uzghiczl
>>519
できるよ、取ってきたものに対していろいろできる。
逆に無いと扱える範囲は限定される。

522 :デフォルトの名無しさん:2015/02/23(月) 05:23:12.47 ID:vR7r0iQ7
>>519
直接は出来ないわよ。ドライバ経由か、SOAP/REST通信
だからゲロ遅
本気でBIG DATA使うプロはこんなの使わない。

描画エンジンだけ呼び出す感じだよね。
あとはたまにreshape使う位かな

523 :デフォルトの名無しさん:2015/02/23(月) 08:59:11.75 ID:5U/A50cW
>>522
そうですね
手法開発に便利という位置づけ。それも手法次第だけど
統計的なものの手法研究には向いている。実装はやりたいこと
次第でそのまま使えることも、書き換えることも。
メリットは無料だから。

524 :デフォルトの名無しさん:2015/02/23(月) 16:06:18.20 ID:X/ddqoE4
面接とかある?

525 :デフォルトの名無しさん:2015/02/23(月) 16:23:16.40 ID:QDxEo34K
これね
http://daily.2ch.net/test/read.cgi/newsplus/1424583177/

526 :デフォルトの名無しさん:2015/02/23(月) 23:44:55.16 ID:zB5CbQDo
この板でレスすんなよ、池沼

527 :デフォルトの名無しさん:2015/02/24(火) 09:02:06.87 ID:k1VrBQn1
GLSLよりHLSLのほうが開発効率高いのでは?

528 :デフォルトの名無しさん:2015/02/24(火) 17:39:13.88 ID:k1VrBQn1
Emergence of simple-cell receptive field properties by learning a sparse code for natural images
http://www.cs.ubc.ca/~little/cpsc425/olshausen_field_nature_1996.pdf
このスレの住人的にはスパース表現ってどうなの?
画像処理では成功してるようだけど

529 :デフォルトの名無しさん:2015/02/25(水) 22:43:01.69 ID:2by7yp2B
この分野を研究するにはどこの大学院のどこの研究室だと思う?
俺は筑波だと思う。

530 :デフォルトの名無しさん:2015/02/26(木) 07:01:14.29 ID:Msso4ZG7
東大か京大か奈良線か

531 :デフォルトの名無しさん:2015/02/26(木) 09:50:56.15 ID:EyqmRpoR
最後鉄道になっとるがな

532 :デフォルトの名無しさん:2015/02/26(木) 11:14:00.82 ID:rJrYfait
Naist

533 :デフォルトの名無しさん:2015/02/26(木) 16:20:48.76 ID:4rHd7HAV
Google

534 :デフォルトの名無しさん:2015/02/26(木) 19:05:02.03 ID:cGnKpNs3
大学院行ってるって言っても
奈良先端とかだと一般人には理解されにくい

535 :デフォルトの名無しさん:2015/02/27(金) 08:08:03.32 ID:ZizjQEXQ
日本製のツールが無いってことは、日本でやってる研究はママゴトレベルって事かなorz

536 :デフォルトの名無しさん:2015/02/27(金) 09:07:11.65 ID:1l5z9oSF
奈良先端だとnttコミュ研?

537 :デフォルトの名無しさん:2015/02/27(金) 09:08:41.51 ID:cP25/4mO
つくばはSoftEther産んだのにね

538 :デフォルトの名無しさん:2015/02/27(金) 18:45:18.56 ID:7wEMQLoY
>>535
無いことはないけど、趣味みたいなものばかり。
残念ながらアジアでもこの分野では日本はTOPとは言えないし。
頑張らないとね。
この分野の大学別の論文参照件数みれば、アジアで
シンガポール、台湾、中国、韓国、香港がそれぞれ複数の大学が
100位以内にランクインしてるのに、日本は東大がかろうじて
100位同等にランクインだけ。200位以内には1校も入っていない。
これが現実。
ほかの分野はほとんど日本が上位なのにね。

539 :デフォルトの名無しさん:2015/02/28(土) 04:39:38.05 ID:xGVFiRYb
日本人の研究者はツールを公開しないのが多い

540 :デフォルトの名無しさん:2015/02/28(土) 10:49:42.68 ID:1nuig21R
>>539
言い訳すんな見苦しい
素直に現実を認めろ

541 :デフォルトの名無しさん:2015/02/28(土) 11:00:23.63 ID:j5d61nKt
>>540
俺の場合、分析結果が成果であり、中間生成物であるプログラムはスコープ外
だから公開とかは考えてないよ
公開するなら、ソース整形したり汎用化した上、ドキュメントも作らないといけないじゃん。更に問い合わせ対応とかもありそう。

そんなものに俺の時間は使えない。食料難がすぐそこにまで来てるから、俺は自分の研究以外に時間を費やせない。

なのに2ちゃんねるしてるパラドクス

542 :デフォルトの名無しさん:2015/02/28(土) 13:01:00.45 ID:JYQdrmRY
biorubyなんて、研究費の無駄遣いで作られた産物じゃないの?

543 :デフォルトの名無しさん:2015/02/28(土) 17:03:04.75 ID:QbpHqzLh
>>542
そもそも、それしられてない。
特化したものだろね。
それはそれで必要なんだろうけど、どちらかというと、
そういうのばかり。

544 :デフォルトの名無しさん:2015/03/01(日) 17:13:34.35 ID:spYgI90N
MinHashって日本語で良い解説なくて理解がいまいちだったが把握できた気がする。
次元圧縮の一手法なんだな。大局的分析が不要な。
これで成立するなら既存の巨大行列から始める圧縮は衰退するかも?

これであってる?
集合{ A1 , A2,, ・・・} と{ B1 , B2,, ・・・}が似てるかを、値が整数値のハッシュ関数fを用意して、
集合{ f(A1) , f(A2),, ・・・} と{ f(B1) , f(B2),, ・・・} の比較に持ち込む。
ここでかなり情報は失われているが、さらに大胆にそれらの最小値だけを取り出して比較するのがMinHash。
これだと情報がなくなり過ぎてるのでハッシュ関数を必要に応じて複数用意する。

545 :デフォルトの名無しさん:2015/03/02(月) 11:26:33.26 ID:Jdzp/AqX
俺の理解と違う

546 :デフォルトの名無しさん:2015/03/03(火) 00:24:58.57 ID:mkNkU9k7
近年俄に注目を浴びている深層学習(deep learning)の基本構造は,大雑把に言ってしまうならこのスパースコーディングモデルを何層も重ねたものである.
http://www.brl.ntt.co.jp/people/terashima.hiroki/paper/terashima2014sparse.pdf

スパースコーディングモデル強いんだな

547 :デフォルトの名無しさん:2015/03/03(火) 12:38:52.01 ID:MTEiuY4+
なんで過去に言われたことをわざわざ別の言葉で表現するんだろう

受容野の応答がgaborフィルタみたいだとか、David Marrとか、
人の認識機構に物体のエッジに対して方向性を持ったフィルタがあるようだ、とか
散々言われてきたよね

548 :デフォルトの名無しさん:2015/03/03(火) 17:52:39.32 ID:KaeSrqvm
対象にしている分野領域との関係なのかな?

それとも、名誉欲で名前売りたい。

どちらかでしょ。

549 :デフォルトの名無しさん:2015/03/03(火) 20:47:14.67 ID:mkNkU9k7
>>547
スパースコーディングは基底を計算する事を言うから

550 :デフォルトの名無しさん:2015/03/04(水) 01:53:07.08 ID:0Xtj1QrT
頭がスパースなんで、ようわからん。

551 :デフォルトの名無しさん:2015/03/04(水) 05:28:04.63 ID:BfpDhGEH
つ 赤味噌

552 :デフォルトの名無しさん:2015/03/04(水) 12:03:55.43 ID:OvqxGD7q
>>549
分かっていない奴乙

553 :デフォルトの名無しさん:2015/03/04(水) 20:41:37.84 ID:HM6SwUc2
>>552
スパースコーディングした結果がgaborフィルタと同様だったって話だぞ?

554 :デフォルトの名無しさん:2015/03/05(木) 05:44:52.79 ID:f7mkzvZv
何も分かっていない小学生でも適当に>>552のようなことを言って煽ることはできる

555 :デフォルトの名無しさん:2015/03/05(木) 10:22:44.56 ID:tytuqA5/
これってDavid Marrの研究を剽窃しただけ?

556 :デフォルトの名無しさん:2015/03/05(木) 13:14:35.73 ID:nyPqR+yd
違う。
David Marrは生物学的立場からの研究。

画像のスパース表現、つまり任意の画像を基底となる少数の画像の線形結合で表現したらgaborフィルタと同様になった
っていう研究はこれ

Emergence of simple-cell receptive field properties by learning a sparse code for natural images
http://www.cs.ubc.ca/~little/cpsc425/olshausen_field_nature_1996.pdf

スパース表現は少数の基底を用いてデータを表現することを言うわけで、線形結合に限るわけじゃない

557 :デフォルトの名無しさん:2015/03/05(木) 15:10:09.26 ID:tytuqA5/
Pentlandのeigenface以後のゴミ論文なんか出してくんな
画像の構造を局所的に捉えるか大域的に捉えるかの違いだけだ
そのeigenfaceだってKirbyの二番煎じだし
多重解像度解析とwaveletの組合せも同じ事の繰り返しだ

558 :デフォルトの名無しさん:2015/03/05(木) 15:39:11.88 ID:nyPqR+yd
>画像の構造を局所的に捉えるか大域的に捉えるかの違いだけだ
だーからそれに違いはねーって
全部含めてスパースコーディングって呼んでんだよ

559 :デフォルトの名無しさん:2015/03/06(金) 12:36:52.19 ID:rAv9n4GI
スパース厨うぜえ

560 :デフォルトの名無しさん:2015/03/06(金) 14:05:39.72 ID:m0y6UHIj
MinHashは粗くいい加減な方法で新基軸を作る方法だろ?
主成分分析は正確な方法として。
MinHashのハッシュ関数がひとつであればいきなり一次元へ圧縮できるわけで。

561 :デフォルトの名無しさん:2015/03/06(金) 14:26:24.32 ID:m0y6UHIj
主成分分析でm次元ベクトルXをn次元に変換したものを( m( 1, X ), ・・・.mh( n, X ) ,)としたとき
これはいい加減な方法で次元圧縮してるminhashと同じだろう?




minhash
2つの集合 X, YのJaccard係数を,Jac( X, Y) とする.
MinHashは適当なハッシュ関数を利用し,集合中の各要素のハッシュ値を求め,その最小値を m(h, X) とした時,
m(h, X) =m(h, Y)となる確率は Jac( X, Y)と一致することを利用し,このJaccard係数を推定する.
複数のハッシュ関数を用意しそれらの間で一致した割合を求めると,それはJac( X, Y) に近づく.
また,実際のハッシュ値を保持せずに,ハッシュ値の最下位のビットのみを記録したとしても,衝突分を差し引くことで,Jaccard係数を求めることができる[Ping2010] .
http://jubat.us/ja/method.html

562 :デフォルトの名無しさん:2015/03/06(金) 15:19:33.96 ID:7hSPkkPD
片山Uzeee

563 :デフォルトの名無しさん:2015/03/08(日) 12:27:22.10 ID:4lDqmrNi
低解像度の二次絵を絵柄を学習して高画質に変換する技術ないですか?

564 :デフォルトの名無しさん:2015/03/09(月) 22:36:57.13 ID:J9cbWgTn
Amazonのリコメンデーションで知ったのだが学生、技術者向けにシリーズがでるそう。
4月分は次の4冊。この先、全29巻も予定されているが既存の書籍とどう棲み分けるのだろう。

深層学習
オンライン機械学習
機械学習のための確率と統計
トピックモデル

機械学習プロフェッショナルシリーズ(全29巻)
ttp://www.ms.k.u-tokyo.ac.jp/2015/MLseries.pdf

565 :デフォルトの名無しさん:2015/03/10(火) 10:15:20.46 ID:tG1daNdD
全部見たいけど誰が書くのかな

566 :デフォルトの名無しさん:2015/03/10(火) 10:17:33.82 ID:tG1daNdD
よくみると著者かいてあるな

567 :デフォルトの名無しさん:2015/03/11(水) 12:34:05.12 ID:/LbzyNZ7
BSの放送大学で20時から「データからの知識発見」やってる
今夜は第4回

568 :デフォルトの名無しさん:2015/03/11(水) 12:53:16.59 ID:0wRwUdte
地上波でやってるだろ

569 :デフォルトの名無しさん:2015/03/11(水) 12:53:55.12 ID:/LbzyNZ7
>>568
田舎じゃやってないので

570 :デフォルトの名無しさん:2015/03/11(水) 16:44:28.97 ID:6tE0XEqn
聴講生になれば、ネットでも見られるんだけどね。

571 :デフォルトの名無しさん:2015/03/11(水) 22:01:31.43 ID:fZWFajxa
>>567
第4回楽勝だったけど、録画した第3回が難しかった。
第5回はまだ見てないが主成分分析だったな

572 :デフォルトの名無しさん:2015/03/21(土) 04:57:51.25 ID:bP06MG4q
GPUまで持ちだしてまで、deep learningで何するわけ?
露頭に迷ったときは、PHPでfannかsvmで十分なんだよね

573 :デフォルトの名無しさん:2015/03/21(土) 04:59:57.94 ID:bP06MG4q
>>546
下らねぇコラムだこと

574 :デフォルトの名無しさん:2015/03/22(日) 04:40:19.71 ID:gw0VLV6T
cheap learning まででいいだろ。

575 :デフォルトの名無しさん:2015/03/22(日) 11:33:12.87 ID:GNbcKMOK
>>572-573
池沼w

576 :デフォルトの名無しさん:2015/04/02(木) 23:11:04.13 ID:AsSQmosq
deep learningって中間層のノードが増えてるみたいだけど、どうして初期のニューラルネットはそれがうまく行かなかったの?
今は食わせるデータが超大量になったから中間層のノード増加が有効に働くようになったの?

577 :デフォルトの名無しさん:2015/04/02(木) 23:17:31.81 ID:Jp+fEhAy
>>576
中間層に構造が入ってる(適当)
http://www.slideshare.net/nlab_utokyo/deep-learning-40959442

578 :デフォルトの名無しさん:2015/04/03(金) 01:41:35.49 ID:fzer+KzR
機械学習ってもういかに次元を減らすかが設計思想として優先度高い
拘束条件の取り方っていうか

579 :デフォルトの名無しさん:2015/04/03(金) 01:50:25.60 ID:kWaQKCkP
カルマンニューロなどの発展型かと思ってたよ

580 :デフォルトの名無しさん:2015/04/03(金) 09:15:12.46 ID:x7gEsJPj
>>577
ありがとう。いくつかの要因があって急速に発展してるわけだね。

581 :デフォルトの名無しさん:2015/04/03(金) 10:34:47.86 ID:2+aPFBzG
>>578
アプリオリな知識だね

582 :デフォルトの名無しさん:2015/04/03(金) 11:14:06.38 ID:yoKoRszp
エキスパートシステムに逆戻りか

583 :デフォルトの名無しさん:2015/04/03(金) 15:46:03.56 ID:1AHy5fM3
deep learningでprolog処理系を作るのか。クールだな

584 :デフォルトの名無しさん:2015/04/03(金) 15:51:38.40 ID:jT27wjta
情報幾何は機械学習に役に立つの?

585 :デフォルトの名無しさん:2015/04/03(金) 23:24:24.23 ID:r+0zeEBB
>>584
学習できるドメインのクラスを証明するには情報幾何が必要

586 :デフォルトの名無しさん:2015/04/03(金) 23:30:52.31 ID:HvtlE+dY
>>585
文献おせーて

587 :デフォルトの名無しさん:2015/04/05(日) 08:16:23.30 ID:4nn8wKW5
甘利先生周りを調べればよい

588 :デフォルトの名無しさん:2015/04/05(日) 11:22:32.61 ID:pEcsFoSk
なんか怒られそう(笑)

589 :デフォルトの名無しさん:2015/04/06(月) 00:18:36.26 ID:XN2ikOHG
甘利の本はとても高い!

590 :デフォルトの名無しさん:2015/04/06(月) 00:28:17.34 ID:RJanBG3J
情報幾何学の新展開 は安いぞ

591 :デフォルトの名無しさん:2015/04/06(月) 14:03:11.21 ID:X9nCsiZD
hopfiled network(藁

592 :デフォルトの名無しさん:2015/04/06(月) 16:04:58.97 ID:axBAmAdD
激ムズで全然分からんかった...>>情報幾何学

593 :デフォルトの名無しさん:2015/04/06(月) 16:20:24.49 ID:EluQw0m1
知らないが必要ないなら後回しでいいし、必要なら勉強したらいい。

594 :デフォルトの名無しさん:2015/04/06(月) 16:37:22.35 ID:3fwy1svr
プログラム書くには関係ないだろ、理論に興味があれば別だが

595 :デフォルトの名無しさん:2015/04/06(月) 16:58:36.66 ID:EluQw0m1
これは理論物理、数学だな。
これで思い出したが。相対性理論と似てるならその違いを教えてくれ。
理論物理で有名な、ゲージ理論と相対性理論と結びつけるAdS/CFT対応(ゲージ/重力双対)の類似物はあるのか教えてくれ。



情報幾何の基礎概念 長岡 浩司(電通大)
http://www.sci.osaka-cu.ac.jp/~ohnita/2006/inf_geom/sos_dan/01_nagaoka_0403.pdf

596 :デフォルトの名無しさん:2015/04/06(月) 17:04:53.40 ID:3fwy1svr
関係ない

597 :デフォルトの名無しさん:2015/04/06(月) 17:22:25.24 ID:EluQw0m1
>>596
どっちもリーマン多様体の話。リーマン多様体といえば相対性理論くらいしか応用例がないほどの結びつきと思うが。


http://www.sci.osaka-cu.ac.jp/~ohnita/2006/inf_geom/sos_dan/01_nagaoka_0403.pdf
その中で今回は一番基本的且つ重要と思われるFisher計量(と云われるRiemann計量)とα-接続(と云われるaffine接続)、
これらは確率分布を要素とする多様体上にのる、の話をしたい。

598 :デフォルトの名無しさん:2015/04/06(月) 17:29:45.85 ID:X9nCsiZD
hopfieldやゲージ理論って、データマイニングする上で何の役に立つの?

599 :デフォルトの名無しさん:2015/04/06(月) 17:55:22.89 ID:EluQw0m1
仮に一般化する、条件を緩めることで相対性理論と繋がるならその知識・人材を取り込める。
幅が一気に広がる。

600 :デフォルトの名無しさん:2015/04/06(月) 18:16:18.48 ID:EluQw0m1
一般化してもどうやっても繋がらないなら相対性理論(の前提)の方を情報幾何に近づけて相対性理論が成り立つのかでもいい。
自分でやれは無理。昔から相対性理論を勉強したいと思っていたがしなかったのでどちらにも詳しくない。
結びつくなら勉強する動機付けになる。

601 :デフォルトの名無しさん:2015/04/06(月) 19:10:57.86 ID:tGypevtj
R言語で、書いたプログラムってGPLの影響あるのかな?

602 :デフォルトの名無しさん:2015/04/06(月) 20:34:41.71 ID:Ao1TJlem
>>597
最下行がみえんかった、広告のせいだ、すまん

603 :デフォルトの名無しさん:2015/04/06(月) 22:52:37.03 ID:i1gjS2rL
またに

604 :デフォルトの名無しさん:2015/04/07(火) 14:01:51.89 ID:jgN7fbKH
計算機の世界に物理現象が関係あるわけがないだろう
どうせ記法を借用しているだけだ

605 :デフォルトの名無しさん:2015/04/07(火) 17:56:38.85 ID:VYkVDEox
オススメに入ってきたのでいつか買おうとカゴに入れっぱなしだが
ファインマンが書いた「ファインマン計算機科学」が
物性科学と計算可能性の方面を考察していて面白そうではあるな。

606 :デフォルトの名無しさん:2015/04/07(火) 19:35:34.49 ID:l/r6bl2d
>>604
そもそも物理現象に数学が関係あることに疑問を持とう!

607 :デフォルトの名無しさん:2015/04/07(火) 21:32:10.19 ID:+Kw7vBhS
もたねえよ
近似してるだけだから
微分方程式も出てこない分野で物理法則が根拠を持つかよ

608 :デフォルトの名無しさん:2015/04/07(火) 21:41:59.08 ID:9CBsbU69
>>606
おいおいおい

609 :デフォルトの名無しさん:2015/04/07(火) 22:05:47.87 ID:+Kw7vBhS
死ぬわアイツ

610 :デフォルトの名無しさん:2015/04/08(水) 22:05:22.45 ID:zRg55zlb
>>607
物理現象を数学で近似できると信仰してるのが物理学者ですよ
近似できる根拠がないので信仰

611 :デフォルトの名無しさん:2015/04/08(水) 22:26:59.49 ID:pV/hMeSN
何いってんだお前

612 :デフォルトの名無しさん:2015/04/08(水) 22:31:52.27 ID:pV/hMeSN
http://toloverulove.blog121.fc2.com/blog-entry-3088.html

613 :デフォルトの名無しさん:2015/04/13(月) 10:53:43.49 ID:MZKazo/5
Amazon Machine Learning – Make Data-Driven Decisions at Scale
https://aws.amazon.com/blogs/aws/amazon-machine-learning-make-data-driven-decisions-at-scale/

614 :デフォルトの名無しさん:2015/04/13(月) 17:37:27.89 ID:yfbr/3Mk
形態素解析って畳み込みでできないのかね

615 :デフォルトの名無しさん:2015/04/13(月) 19:14:33.47 ID:xeB/lm5m
?

616 :デフォルトの名無しさん:2015/04/14(火) 16:53:10.60 ID:WNWP/99F
暗号の研究してるんですがシードと生成された擬似乱数の間の相関を探すために機械学習を用いるってのは無謀ですかね?

617 :デフォルトの名無しさん:2015/04/14(火) 17:57:44.62 ID:dceTyaYQ
本当に研究しているのか?

618 :デフォルトの名無しさん:2015/04/15(水) 13:11:52.76 ID:dAZ2doOV
研究段階なら試して見れば良いんじゃね?

619 :デフォルトの名無しさん:2015/04/15(水) 21:30:45.33 ID:nP98P1fD
どういうアルゴリズムでも基底の数を最小化するようにしていけばいいのかな

620 :デフォルトの名無しさん:2015/04/20(月) 12:23:56.97 ID:kK5NTkAl
AICのことをいいたいのか?

621 :デフォルトの名無しさん:2015/04/20(月) 21:44:12.20 ID:J2HjqGk4
http://fastml.com/running-things-on-a-gpu/
SVMをGPUで動かすプログラムが5つもあるようだけど
どれが一番高速なの?

機械学習の分野はCUDAばっかりでOpenCLは使われてないの?

622 :デフォルトの名無しさん:2015/04/20(月) 21:50:07.78 ID:xXuWQISH
全員がGPU買うわけじゃないし…

623 :デフォルトの名無しさん:2015/04/21(火) 15:52:54.33 ID:I81P41nq
https://github.com/niitsuma/gpusvm
新しいcudaで動かなくなっていたので動くようにfix

624 :デフォルトの名無しさん:2015/04/30(木) 20:51:15.30 ID:b9tpKT+m
WekaでJ48の決定木のモデルを作ったわけだけど、
「こんな決定木です」って説明する手段というか、評価軸ってあるの?

例えば枝の数とか深さは、ひとつの尺度になるんだろうか?

625 :デフォルトの名無しさん:2015/05/01(金) 11:24:06.78 ID:aNg7SiAs
Rのdistで出した対戦表みたいな結果を
エクセルとかに書き出したいんだがどうしたらいい?

626 :デフォルトの名無しさん:2015/05/01(金) 16:52:44.69 ID:fc8rFhpF
>>624
なる

627 :デフォルトの名無しさん:2015/05/03(日) 00:08:29.25 ID:+1/GzoNu
>>625
CRANからexcel周りのライブラリを探すか、CSV方式で出力すればいい

628 :デフォルトの名無しさん:2015/05/03(日) 15:54:50.37 ID:Ftsc4vFw
>>625
write.csv(as.matrix(testdist),"a.csv")
でどうかね

629 :デフォルトの名無しさん:2015/05/04(月) 00:23:03.83 ID:RRWqty0U
as.matrixの場合、upperとdiagはfalesにできないん?

630 :デフォルトの名無しさん:2015/05/10(日) 23:19:41.28 ID:c4GphaK4
統計とかやるやつ変態やろ

631 :デフォルトの名無しさん:2015/05/13(水) 00:38:18.08 ID:tj2XXHnt
F欄のバカ大生でもない限り、皆、統計とデータマイニングを獲るよ
そもそも大学へ行って価値ある講義なんて、実際に統計しかないから

632 :デフォルトの名無しさん:2015/05/13(水) 05:36:02.08 ID:NE4+E1hX
そりゃまちがいだ
リベラルアーツをもっとしっかり学ぶべき
みんな専門分野以外がよわすぎ

633 :デフォルトの名無しさん:2015/05/13(水) 10:32:55.20 ID:s0PYlBc9
F欄以下の専門学校卒だけども、統計解析やら英語技術文章の読み書きやら特許の申請方法やら論文の書き方やら発表の仕方やら色々やった
バカ大卒でも俺よりもっと頭良いんだろうなー

634 :デフォルトの名無しさん:2015/05/14(木) 00:35:36.71 ID:rjV0ciRm
冷静に考えろ
データマイニングが流行ってるのは、ビックデータを扱えるようになったからで、
ビッグデータを扱えるようになった理由は、かなり抽象度の高い分析まで機械で自動化できるようになったからです

統計の実務はもう必要ありません

635 :デフォルトの名無しさん:2015/05/14(木) 05:05:06.17 ID:hssliOfQ
>>634
>ビッグデータを扱えるようになった理由

マシンの計算速度が上がったからでしょ?

636 :デフォルトの名無しさん:2015/05/14(木) 06:06:45.42 ID:xzxhllFG
馬鹿の発想の典型w

637 :デフォルトの名無しさん:2015/05/14(木) 13:56:12.55 ID:rjV0ciRm
>>635
人間を雇う方が高くつくほど上がった

638 :デフォルトの名無しさん:2015/05/14(木) 16:16:02.03 ID:Zp0DB20p
極めて純度の低い鉱脈のものでも騙して売りつけられる事に気づいたからだよ

639 :デフォルトの名無しさん:2015/05/14(木) 16:40:29.95 ID:RkT2pahX
それサブプライムローンと似てね、こわー

640 :デフォルトの名無しさん:2015/05/14(木) 17:03:19.08 ID:rjV0ciRm
ビッグデータの取り扱いが可能になって分かったことは、大部分の分析が単純な手続きでOKになったということ
後付けで考えればそれもそのはずで、統計のテクニックとは要するに「少ないデータでどうするか?」ということだから

データフォーマットの統一やインターフェイスの改善が加わって、ドメインさえ絞れば、人間の専門家をこえる抽象的な分析が機械でも可能になった
特にビジネスについては、ドメインがはじめから限定されているため、専門家とソフトでは、コストが安い方という選択になっている
そして、ソフトは人間を雇うよりも安くなった

さらに、私たちは、そういったソフトを無料で世界に提供し続けている

かつてOffice類似アプリや会計ソフトを提供したときには、日本の法規制や役所の体質により、士産業の人を失業させることができなかった
しかし、今度こそは、統計の専門家たちを大量に失業させてみせる

641 :デフォルトの名無しさん:2015/05/14(木) 17:24:51.86 ID:KoF17XCV
統計を勉強したことないくせに(笑)

642 :デフォルトの名無しさん:2015/05/14(木) 18:18:24.31 ID:GXW9tScd
ビッグデータ時代でも統計は必要なんだがな
今まで関連付けられていなかった因子が意外なとこで繋がったりするし

643 :デフォルトの名無しさん:2015/05/14(木) 18:58:39.40 ID:vB8jjF+5
統計は手段

644 :デフォルトの名無しさん:2015/05/14(木) 20:50:38.05 ID:lQjLrYnR
士業とクソコンサルの区別もつかないのか

645 :デフォルトの名無しさん:2015/05/14(木) 21:15:22.13 ID:8JPyWMSf
それって人工知能って奴w

646 :デフォルトの名無しさん:2015/05/14(木) 22:01:38.78 ID:lQjLrYnR
AICって実際正しいか?

647 :デフォルトの名無しさん:2015/05/14(木) 22:34:40.90 ID:FeJl28at
正統な理論、万能かと言う意味なら違うがw

648 :デフォルトの名無しさん:2015/05/14(木) 23:27:49.67 ID:bHsM8gGN
>>640
役所連中って、今だに給料が手渡しなんだってね
何でも、その方が有り難みが分かるだと。あいつら死ねば良いのに

649 :デフォルトの名無しさん:2015/05/14(木) 23:34:23.78 ID:lQjLrYnR
今でも手渡しやってるとこなんてあるのかね

650 :デフォルトの名無しさん:2015/05/14(木) 23:44:05.30 ID:FWJQLL2c
>>635
まずストレージやね

651 :デフォルトの名無しさん:2015/05/15(金) 14:58:19.96 ID:YfmCR69l
DQN: Deep Q-Network

652 :デフォルトの名無しさん:2015/05/15(金) 20:12:36.04 ID:zCYiPc09
>>642
単純な処理でOKになった
ぶっちゃけ、ビッグデータなら、テーブルの属性全部変数にして最小二乗法すればOK

653 :デフォルトの名無しさん:2015/05/16(土) 02:41:16.23 ID:wO6lQubX
ボタン一個でデータサイエンティスト

654 :デフォルトの名無しさん:2015/05/16(土) 10:07:14.23 ID:r2YTha+7
Yシャッツのボタン取れてますよw

655 :デフォルトの名無しさん:2015/05/16(土) 16:40:20.88 ID:PxH+IVwc
統計処理が電卓並みに抽象化された

656 :デフォルトの名無しさん:2015/05/18(月) 13:07:33.42 ID:+ifgGYE2
素人考えで申し訳ない
特徴抽出が必要ないDNNでさえ、結果をフィードバックして最適化の為のチューニングを手動で行う必要があると思うんだけど、その処理って自動化できないの?そういうライブラリとか研究ってある?

657 :デフォルトの名無しさん:2015/05/18(月) 13:55:11.98 ID:odyJmK7m
S級、天然?

658 :デフォルトの名無しさん:2015/05/18(月) 16:51:39.62 ID:NqOKsJGV
deep learningって特徴検出を自動化したものじゃないのか?

659 :デフォルトの名無しさん:2015/05/18(月) 21:27:35.74 ID:QFYh6h+b
>>656
今の流行りは情報量基準でモデル構造を更新します

660 :デフォルトの名無しさん:2015/05/19(火) 23:33:21.46 ID:0c46CChG
頭に思い浮かべる前に結果がレポートされてこそ自動化

661 :デフォルトの名無しさん:2015/05/20(水) 05:53:36.09 ID:eMro0gna
人間を奴隷にすれば済むな

662 :デフォルトの名無しさん:2015/05/20(水) 09:37:03.39 ID:RTNjGMxk
金で解決しろよw

663 :デフォルトの名無しさん:2015/05/20(水) 11:32:49.57 ID:/X2E9Uvm
おんなじことだろ

664 :デフォルトの名無しさん:2015/05/20(水) 11:50:51.35 ID:1QrQQSxc
主成分分析とスパース表現は違うぜ

665 :デフォルトの名無しさん:2015/05/20(水) 12:06:17.49 ID:/X2E9Uvm
なにいってんの?w

666 :デフォルトの名無しさん:2015/05/20(水) 13:37:52.12 ID:ugJdOWTQ
解析と配列が同じと考えてる奴なんておるん?w

667 :デフォルトの名無しさん:2015/05/21(木) 19:26:00.42 ID:5rnxwJOj
それにしても日本だとまだこの分野しばらく食っていけるな
数学にがて、プログラムできない、プレゼンできない
そんな人間が多いせいでスーパースター扱いや

668 :デフォルトの名無しさん:2015/05/21(木) 20:52:40.81 ID:/8KRSzO3
質問があります。

何らかの方法で複数の判別式を作成し、2群の判別を行います。
このとき、判別式から得られた2群の判別スコアに対してt-検定を行い、p-valueを
算出します。
このp-valueの小さい判別式のほうが優れた判別式である、という解釈は成り立つの
でしょうか。

つまり、一般的には精度・感度・特異度などで判別式の評価をしますが、判別スコ
アの統計学的有意性で評価することも可能なのでしょうか。

669 :デフォルトの名無しさん:2015/05/21(木) 22:30:45.60 ID:fIIiCy3j
Rの関数をFORTRANかJAVAで使う方法ない?
CはRINSIDEってやつがあるようだけど

670 :デフォルトの名無しさん:2015/05/21(木) 22:38:10.48 ID:K+IxyMoP
>>669
pipeでできない?

671 :デフォルトの名無しさん:2015/05/21(木) 23:23:13.59 ID:fIIiCy3j
>>670
レスありがとう
システムコールの意味でのpipe?
どちらかというとサブルーチンをリンクさせて内部的に呼び出す方法というかなんというか
よくわかってなくてすいません

672 :デフォルトの名無しさん:2015/05/22(金) 04:09:13.31 ID:oaFudSI5
Rでいらっとするのが文字の結合

673 :デフォルトの名無しさん:2015/05/22(金) 07:56:12.73 ID:NFV6iIvH
paste?

674 :デフォルトの名無しさん:2015/05/22(金) 08:08:29.58 ID:wJWWrxe/
こんなのかな
paste(c("a","b","c"),collapse="-")

675 :デフォルトの名無しさん:2015/05/22(金) 09:44:10.65 ID:LopKJOfq
>>667
きのう漏れの席の前に座ってたひと?

676 :デフォルトの名無しさん:2015/05/22(金) 11:36:48.20 ID:W0cboHgQ
自然科学のほうからきたから線形代数わかんね

677 :デフォルトの名無しさん:2015/05/22(金) 13:42:28.75 ID:4hM5Qqik
人文科学のほうからきたから統計わかんね

678 :デフォルトの名無しさん:2015/05/22(金) 13:55:24.61 ID:tJUwDPLO
>>668
データや目的でも変わるから、t検定だけで良いかどうかは状況次第な気もする
参考になるかはわからんが
http://www.geisya.or.jp/~mwm48961/statistics/bunsan1.htm

679 :デフォルトの名無しさん:2015/05/22(金) 17:10:53.98 ID:LGplYSw+
「優れた判別式」の定義次第
査読だったらここに突っ込む

680 :デフォルトの名無しさん:2015/05/22(金) 17:20:55.91 ID:vhv1xcN/
D=b^2-4ac

681 :デフォルトの名無しさん:2015/05/22(金) 18:40:42.72 ID:BFaHN3PE
浮動小数点数の罠ですね

682 :デフォルトの名無しさん:2015/05/22(金) 18:48:12.20 ID:Hrz71dyM
>>677
天上界から来たから人間界わかんね

683 :デフォルトの名無しさん:2015/05/22(金) 18:59:35.63 ID:oaFudSI5
パイそんだったら普通に+でいけるのにな

684 :デフォルトの名無しさん:2015/05/22(金) 19:59:11.04 ID:NFV6iIvH
まあそうだね

685 :デフォルトの名無しさん:2015/05/25(月) 19:58:56.74 ID:KmZ/ChVc
上司のメールがウザいんですが、いい関数ないでしょうか

686 :デフォルトの名無しさん:2015/05/25(月) 23:08:40.87 ID:9ySYZfBh
日本向けのデータ分析コンペってどこで情報得られる?
CrowdSolvingとかoptって見つけたけど過疎すぎじゃない?

687 :デフォルトの名無しさん:2015/05/28(木) 19:56:15.31 ID:l8qQI08f
日本向けってどういう意味?
日本で行っている分析コンペのことでいいのであれば
 「データサイエンス・アドベンチャー杯」
 「データ解析コンペティション」

688 :デフォルトの名無しさん:2015/05/30(土) 06:53:27.42 ID:pUKXW5Db
日本人の間違いじゃね

689 :デフォルトの名無しさん:2015/05/31(日) 09:23:25.99 ID:o6Fd4Id5
日本人に限定する意味がある?

690 :デフォルトの名無しさん:2015/05/31(日) 09:25:41.25 ID:YSSyJ6YF
>>175
日本語オンリーw

691 :デフォルトの名無しさん:2015/06/01(月) 17:37:57.92 ID:YQTZGblc
本当に次元を減らせばいいだけなのかな

692 :デフォルトの名無しさん:2015/06/03(水) 07:05:41.57 ID:Lql+HH/m
次元厨うぜえ

693 :デフォルトの名無しさん:2015/06/03(水) 10:47:58.34 ID:6cmhZ/7u
大介

694 :デフォルトの名無しさん:2015/06/06(土) 06:33:21.24 ID:rqj+0mpq
Goでやるのがいいの?

695 :デフォルトの名無しさん:2015/06/06(土) 11:44:12.48 ID:DEqjSCNd
郷に入っては郷に従え

696 :デフォルトの名無しさん:2015/06/06(土) 17:58:20.32 ID:iOc5J6pb
Rでdensity()とかplotするとき
カラーバーの値の上限下限ってどうやって指定すんの?

697 :デフォルトの名無しさん:2015/06/06(土) 18:59:14.70 ID:ABYhx97Y
まず、服を脱ぎます

698 :デフォルトの名無しさん:2015/06/06(土) 21:25:20.54 ID:4JEyPoZi
カラーバーとか出てこなくね
plot(density(runif(100)))

699 :デフォルトの名無しさん:2015/06/07(日) 11:21:45.49 ID:OxvWEyHJ
すみません
↓この場合の

library("spatstat")
x <- runif(100)
y <- runif(100)
XY <- ppp(x, y)
plot(density(XY))

700 :デフォルトの名無しさん:2015/06/07(日) 11:34:57.92 ID:OxvWEyHJ
あ、zlimでいけた
失礼

701 :デフォルトの名無しさん:2015/06/07(日) 23:06:54.50 ID:HBoI62os
みんな何やってる人ですか?やっぱり研究者とか現役院の人とかなんだろうか
自分みたいに普段トマト作ってるけど機械学習勉強してる人なんていないよね

702 :デフォルトの名無しさん:2015/06/07(日) 23:42:35.22 ID:OxvWEyHJ
農家こそ統計学使うべき

703 :デフォルトの名無しさん:2015/06/08(月) 07:17:52.77 ID:1M4UrdBE
農家こそcalcを使うべきw

704 :デフォルトの名無しさん:2015/06/08(月) 11:01:48.78 ID:GczO2WVm
>>701
トマトの糖度を測ってる機械って統計分析を使っているんだよ

705 :デフォルトの名無しさん:2015/06/08(月) 12:30:52.42 ID:hgPtA6rA
みんな農家だよ

706 :デフォルトの名無しさん:2015/06/08(月) 17:17:20.02 ID:gSPiclsF
そういや富士通も植物工場だもんね

707 :デフォルトの名無しさん:2015/06/08(月) 18:49:47.91 ID:wJoLYJqq
だってフィッシャー先生がそもそもそれ系の人じゃん

708 :デフォルトの名無しさん:2015/06/08(月) 20:33:09.85 ID:bTCraCv1
>>701
トマトロボつくってる人?
機械学習にまつわる分野広いから専門外の人間もいるよ

709 :デフォルトの名無しさん:2015/06/08(月) 21:20:31.90 ID:XvgL+ii2
>>707
釣り名人?

710 :デフォルトの名無しさん:2015/06/08(月) 21:25:10.54 ID:FQv4Gom7
フィッシャーさんもベイズさんも、はじめに応用した先は農業だった気がする

711 :デフォルトの名無しさん:2015/06/09(火) 02:04:51.31 ID:XbhJjoGk
>>668
AIC(赤池情報量規準)なんてのがある
その他の判定基準もやまほどあります

結局,銀の弾丸はなく,モデルに応じて,何れかあるいは複数を使用して
総合的に優劣を測るしかないのだろうと思います

712 :デフォルトの名無しさん:2015/06/09(火) 10:03:16.44 ID:ES2+HtSg
ということで統計(推定、検定)の基本を勉強してください

713 :デフォルトの名無しさん:2015/06/09(火) 12:20:46.25 ID:RB3rlq1A
すんごい嫌な奴だったらしいね>>フィッシャー先生

714 :デフォルトの名無しさん:2015/06/09(火) 18:55:59.11 ID:8yl2DF7Q
そりゃ、統計学やってるやつは
他人のこと見下すだろ

715 :デフォルトの名無しさん:2015/06/10(水) 05:51:55.96 ID:8O9sOMNu
そうなん?

716 :デフォルトの名無しさん:2015/06/10(水) 06:49:42.54 ID:B1qRI+vc
以下,コンパイルが通らない
オプション周りが違って関数の型名が違ってしまうのか
リンク時に大量の関数未定義が報告される@ubuntu ON VMWare CPUONLY
皆さん,うまく行きますか?
ttp://d.hatena.ne.jp/muupan/20141021/1413850461
ttps://github.com/muupan/dqn-in-the-caffe

717 :デフォルトの名無しさん:2015/06/10(水) 20:58:29.46 ID:HXQAczVp
うちの上司にも話が通らなくてね

718 :デフォルトの名無しさん:2015/06/12(金) 10:07:45.03 ID:HTdaVDdi
無知です。助言していただけると助かります。

機械A,B,Cの、時間とXY座標の3値の軌跡のデータがあります。
各々の機械の軌跡データを基に特徴を抽出し
軌跡データから機械を導きたいのですが、どういった手法をとればよろしいのでしょうか?

719 :デフォルトの名無しさん:2015/06/12(金) 12:34:50.44 ID:BvpS9WQV
まず、基本統計量に基づきデータを整理します

720 :デフォルトの名無しさん:2015/06/12(金) 13:27:19.74 ID:mayIubBj
それ制御系でしょう
制御系専用スレってないのか

721 :デフォルトの名無しさん:2015/06/12(金) 14:05:19.04 ID:TKFQnn5v
http://wc2014.2ch.net/test/read.cgi/denki/1413453773/

722 :デフォルトの名無しさん:2015/06/13(土) 10:58:35.68 ID:oC83Eqv7
機械を導く、ってどういうこと?
操作するってこと?
15年くらい前に東北大の先生がやっていたような

723 :デフォルトの名無しさん:2015/06/13(土) 11:37:27.86 ID:MvmK+wUc
機械毎の特徴があってそれで機械を識別するんだろう

724 :デフォルトの名無しさん:2015/06/13(土) 18:01:26.35 ID:oC83Eqv7
つまんねえ問題だな

725 :デフォルトの名無しさん:2015/06/14(日) 10:25:08.11 ID:Td3ugu1I
NNでもやれば。データ量が多いか

726 :デフォルトの名無しさん:2015/06/14(日) 17:33:56.39 ID:Rmk+KPS/
条件決めて時間軸でみてやったらいいだけやん

727 :デフォルトの名無しさん:2015/06/14(日) 21:13:08.26 ID:APHpoMIf
本人はどこいったw

728 :デフォルトの名無しさん:2015/06/15(月) 03:48:58.57 ID:+3PE6uzO
ディープラーニングについていまいちよくわかってないんですが
実装サンプルとして手書き数字を識別するタスクよくありますよね
例えばこんなの
http://qiita.com/dsanno/items/a1d805a89e192c44730d
「出力は10ユニット」と最終的に出力するのが10通りと自分で定義してから学習させてます

でもこれ数字に限定してるから最終出力は10と定義できますけど、
全ての文字が対象だとそもそも定義できないですよね 無限とは言わないけど無数にあるし
予め出力の範囲が決まったタスクしかこなせないのであれば只の教師無し機械学習と変わらないように思えます…
Googleが猫を認識したとかいう話とは根本的に何かが違うのでしょうか

729 :デフォルトの名無しさん:2015/06/15(月) 09:34:49.96 ID:JnJTKP3o
ネコかネコでないかを見分けただけ

730 :デフォルトの名無しさん:2015/06/15(月) 10:13:05.95 ID:bINIo/EE
猫細胞を見つけたw

731 :デフォルトの名無しさん:2015/06/15(月) 11:19:37.49 ID:JgBKQWw+
訳:コピペしてすぐ使えるソースをよこせ

732 :デフォルトの名無しさん:2015/06/15(月) 12:04:25.11 ID:1u8jOS7o
教師あり機械学習じゃないの?
何が変わったと思っているんだろう

733 :デフォルトの名無しさん:2015/06/15(月) 12:14:57.55 ID:frGUico5
Googleの猫はyoutubeの動画をオートエンコーダーにぶちこんだら猫の顔に強く反応するユニットができたってだけで、普段やるような識別タスクとは別物よ

734 :デフォルトの名無しさん:2015/06/15(月) 12:31:43.54 ID:+3PE6uzO
え、ディープラーニングって教師無しですよね?
概念獲得後にそれ数字の1ですよって教えるのは人間側だけど、
それはあくまで概念と記号を結び付けさせてるだけで学習の正解データを与えてるわけじゃないですし

735 :デフォルトの名無しさん:2015/06/15(月) 14:22:14.62 ID:N4SxWWem
ディープスロート、ハァハァ

736 :デフォルトの名無しさん:2015/06/15(月) 14:48:53.87 ID:1u8jOS7o
>>734
え、そう?
どの論文を読んでそう思ったのかを教えて

737 :デフォルトの名無しさん:2015/06/15(月) 15:16:20.82 ID:6FCFdlNB
人間が余計な手を加えない方が
予想外の結果(人間の直観に反しているかも知れないが事実として正しいケースとか)
が出て面白いと思う

738 :デフォルトの名無しさん:2015/06/15(月) 15:43:41.86 ID:APmJNnuF
porntubeにautoencoder突っ込んだら何が出てくるの?っと

739 :デフォルトの名無しさん:2015/06/15(月) 17:59:39.79 ID:NxVZBrXd
ディープラーニングやろうってやつの
レベルの低さに驚愕

740 :デフォルトの名無しさん:2015/06/15(月) 18:11:34.52 ID:+3PE6uzO
>>736
実際にディープラーニングで動くもの作ってて正解データを与えた事が無いので
手書きの数字の認識タスクで一つも正解データ与えなくても識別してくれるのは教師無しになるんじゃないの?
最後の出力部分で0~9という符号自体は与えるけどこれは学習とは関係無いですし

741 :デフォルトの名無しさん:2015/06/15(月) 18:26:18.04 ID:1u8jOS7o
どこのライブラリを使っているの?

742 :デフォルトの名無しさん:2015/06/15(月) 19:00:41.51 ID:HyvhXdSd
誰に言ってるの?

743 :デフォルトの名無しさん:2015/06/16(火) 10:25:35.23 ID:3SqFkZPX
パターン認識と機械学習は難しそうなので入門書を教えてください

744 :デフォルトの名無しさん:2015/06/16(火) 10:52:08.68 ID:bWkpMMNP
>>739
PRMLを読破してからホザケ

P.S.私には無理でした

745 :デフォルトの名無しさん:2015/06/16(火) 11:52:37.92 ID:WcQl0gh8
>>743
とりあえずはじめての機械学習のコードでも追いかけてみればいいんじゃないかな

746 :デフォルトの名無しさん:2015/06/16(火) 13:56:34.08 ID:HRUMEWWv
>>745
それも勉強法の一つではありますが

747 :デフォルトの名無しさん:2015/06/16(火) 18:02:46.24 ID:VoJwuU0b
>>743
>>564 の本はどう?
Amazonの読者レビューでは厳しい意見もあるけど、初心者むけにやさしく書かれて
いい本と思ったし、こういう環境が整いつつある初学者の人はうらやましい。

748 :デフォルトの名無しさん:2015/06/16(火) 18:44:53.02 ID:wgJfuxwI
29巻も出しすぎな気もする
練習問題があったりするからなの?

749 :デフォルトの名無しさん:2015/06/16(火) 18:50:38.88 ID:X5rc/3k3
>>747
ありがとう、それにしても巻数がすごい

750 :デフォルトの名無しさん:2015/06/16(火) 18:52:56.18 ID:VoJwuU0b
機械学習が旬の内に出せるものから出すってことと予想してる。
あるいはリスク分散。
正直、個人でそろえるのは金額的にも難しいし、会社や大学向け
かもしれない。

751 :デフォルトの名無しさん:2015/06/16(火) 19:15:44.02 ID:sC0hbT4s
ディアゴスティーニすぎる
内容薄いんだろうな

752 :デフォルトの名無しさん:2015/06/17(水) 02:35:03.15 ID:BhGES0EY
ニューラルネットのわかりやすい入門書教えてください
できればJavaあたりのサンプルコード付のものだと助かります

753 :デフォルトの名無しさん:2015/06/17(水) 06:48:11.97 ID:IIvQtbzf
  ∧_∧
  (´・ω・) いやどす
  ハ∨/~ヽ
  ノ[三ノ |
 (L|く_ノ
  |* |
  ハ、__|
""~""""""~""~""~""

754 :デフォルトの名無しさん:2015/06/17(水) 11:18:13.95 ID:x+anejm8
>>747のシリーズの深層学習なんかは結構ニューラルネットワークについてわかりやすくまとめてあったな
サンプルコードはないけど

755 :デフォルトの名無しさん:2015/06/17(水) 17:35:36.10 ID:s1Fkbzhg
29巻目が出る頃には機械学習なんて不要になってる

756 :デフォルトの名無しさん:2015/06/17(水) 18:27:27.24 ID:t0TaNiuW
やっぱ計算で一発で解析する方向で

757 :デフォルトの名無しさん:2015/06/18(木) 03:27:36.46 ID:0L2nXHMG
>>752
http://www.amazon.co.jp/dp/4627823002

758 :デフォルトの名無しさん:2015/06/18(木) 14:03:17.24 ID:3Upi6lhA
30巻目くらいからトーナメントバトルが始まりそう

759 :デフォルトの名無しさん:2015/06/18(木) 14:49:05.51 ID:nUu04y9F
>>757
カルマンフィルターて特殊じゃないの

760 :デフォルトの名無しさん:2015/06/18(木) 17:05:51.64 ID:i9Z3PO5v
そうだね

761 :デフォルトの名無しさん:2015/06/18(木) 20:23:46.48 ID:0L2nXHMG
>>759
第三世代のNN(BP)からdeep learningのミッシングリングなので
勉強して損は無い。かな?

762 :デフォルトの名無しさん:2015/06/19(金) 06:02:51.07 ID:4ikaW02v
BPからdeep learningの過程はネオコグニトロンじゃね?

763 :デフォルトの名無しさん:2015/06/19(金) 09:30:18.14 ID:giF1KE9b
Javaを使うのやめてほしい

764 :デフォルトの名無しさん:2015/06/19(金) 10:32:23.30 ID:tuzGK2hv
>>762
技研さんかw

765 :デフォルトの名無しさん:2015/06/19(金) 15:58:57.21 ID:4ikaW02v
>>763
システムやWebとは別世界なのに苦行だよね

766 :デフォルトの名無しさん:2015/06/19(金) 17:11:51.60 ID:WXjMcO7x
機種依存しないし(するけど)
言語自体を学習しやすいからじゃない?

767 :デフォルトの名無しさん:2015/06/19(金) 17:17:36.01 ID:9zK8JXlL
CNNの畳み込み層内でのデコードってどうやるか誰か教えてくれません?
オートエンコーダでは重みの転置を使って入力ノードと出力ノードの数を揃える感じなんだけど…

768 :デフォルトの名無しさん:2015/06/19(金) 18:26:21.73 ID:FzphauAa
>言語自体を学習しやすい

そうかなぁ

769 :デフォルトの名無しさん:2015/06/19(金) 18:50:17.73 ID:xAUCvZIp
で、統計数理研究所行った?

770 :デフォルトの名無しさん:2015/06/19(金) 20:09:24.65 ID:EH2LXgsQ
リカレントニューラルネットってなに?

771 :デフォルトの名無しさん:2015/06/19(金) 20:59:40.34 ID:Gj6pFuww
途中にフィードバックがあるやつ

772 :デフォルトの名無しさん:2015/06/20(土) 00:33:23.77 ID:6HkOmq78
>>770
連想記憶とかhopfield netとか言われてるヤツでね?出力が入力になってるヤツ
たしか、量子焼きなまし法の元ネタ。

773 :デフォルトの名無しさん:2015/06/20(土) 08:13:02.84 ID:0VM/G2fd
多層NNの誤差逆伝播の学習率ってどれくらいが良いの?

774 :デフォルトの名無しさん:2015/06/20(土) 08:55:36.16 ID:mGsNf/Ng
←→
これくらい

775 :デフォルトの名無しさん:2015/06/20(土) 09:36:05.47 ID:RlX67Mif
>>772
リカレントというと、ジョルダン型やエルマン型みたいな
パーセプトロンに再帰をいれたやつ
学習も誤差逆伝播法を使う

連想記憶やホップフィールドネットワーク、ボルツマンマシンはまた別の系統
学習にはヘブ則を使う

776 :デフォルトの名無しさん:2015/06/20(土) 18:48:50.55 ID:xtCMDUU6
確認したいんだけど、自分の頭にあるモノってニューラルネットじゃないの?

777 :デフォルトの名無しさん:2015/06/20(土) 19:27:15.78 ID:IIbSRXKO
お前さんの頭の中を割ってみたら?

778 :デフォルトの名無しさん:2015/06/20(土) 19:50:23.43 ID:oorAAZ+a
>>776
ちゃんと勉強した方がいいぞ

779 :デフォルトの名無しさん:2015/06/21(日) 01:17:04.86 ID:jrZg8i9a
ANNって、データマイニングや機械学習の、どの辺りに位置づけられるものなの?

780 :デフォルトの名無しさん:2015/06/21(日) 10:07:36.09 ID:fMHlubTH
テレ朝系列

781 :デフォルトの名無しさん:2015/06/21(日) 10:45:17.96 ID:DNozaEUf
この毎度しょーもない返し方する奴ってどういう人物なのかな

782 :デフォルトの名無しさん:2015/06/21(日) 10:45:51.59 ID:DNozaEUf
どういう人物、じゃなくて同一人物ね

783 :デフォルトの名無しさん:2015/06/21(日) 10:47:38.09 ID:+Ij4cATS
この分野日本語文献少なすぎ問題

784 :デフォルトの名無しさん:2015/06/21(日) 10:49:33.72 ID:NfbAbIrm
【米国】驚異の人工知能 記者に代わって記事書き、資料整理まで…雇用喪失懸念も[毎日新聞] [転載禁止](c)2ch.net
http://daily.2ch.net/test/read.cgi/newsplus/1434817222/

記事書き、資料整理まで 米、驚異の人工知能 雇用喪失懸念も 毎日新聞 2015年06月20日 東京夕刊
ttp://mainichi.jp/shimen/news/20150620dde001040039000c.html

785 :デフォルトの名無しさん:2015/06/21(日) 12:30:48.95 ID:yQNdYAgV
MNISTデータをニューラルネットで学習させて分類させてるが正答率90%超えねえ
隠れ層1層なのが悪いのか...

786 :デフォルトの名無しさん:2015/06/21(日) 13:09:50.80 ID:2xkObFfv
>>785
層増やせばいいやん

787 :デフォルトの名無しさん:2015/06/21(日) 13:27:01.59 ID:2Fh3x+Te
そうそう。

788 :デフォルトの名無しさん:2015/06/21(日) 14:22:40.74 ID:yQNdYAgV
色んなブログ見てると隠れ層1層でも90%超えてるんだよね
俺は89%でギリギリ超えねえ
ふざけんなよ

789 :デフォルトの名無しさん:2015/06/21(日) 14:26:02.58 ID:1aO/3Esi
3層で生のデータ突っ込むだけでも95%弱はいくはずだがどんなやり方してんだ

790 :デフォルトの名無しさん:2015/06/21(日) 14:31:33.74 ID:2xkObFfv
>>788
別にブログと同等以上の結果が出なくても89なら実装ミスではないんじゃね?
一層だとepoch, 学習率, ネットワークのの初期値の違いが結構顕著にでる気がする

791 :デフォルトの名無しさん:2015/06/21(日) 15:34:58.67 ID:yQNdYAgV
学習データは各数字200個で合計2000個
その2000個からランダムに画像選んでニューラルネットで学習
これを20万回繰り返す
学習率は0.01か0.05か0.1
重みの初期値は0から0.01の間

テストデータは各数字1000個で合計2万個

バイアス項入れてないからこれが原因かもしらん

792 :デフォルトの名無しさん:2015/06/21(日) 15:38:19.92 ID:VLsYAdMC
そのランダムは本当にランダムですか?

793 :デフォルトの名無しさん:2015/06/21(日) 18:43:10.44 ID:Z7zyhWdn
人間の脳は何層なんでしょうか?

794 :デフォルトの名無しさん:2015/06/21(日) 19:05:03.68 ID:/gMpDjZs
7層じゃね

795 :デフォルトの名無しさん:2015/06/21(日) 19:07:50.71 ID:Z0XqXRxK
1人なんだから1層

796 :デフォルトの名無しさん:2015/06/21(日) 19:30:29.39 ID:YQGPuxlq
考え直す回数に相当

797 :デフォルトの名無しさん:2015/06/21(日) 20:45:48.55 ID:1H9KPQFH
>>793
お前の脳をPET、fMRIで見れば分かる

798 :デフォルトの名無しさん:2015/06/21(日) 22:08:18.45 ID:DNozaEUf
>>797
うわあ

799 :デフォルトの名無しさん:2015/06/21(日) 22:27:00.05 ID:/sXNCCzC
>>781
コネクショニストですが何か

800 :デフォルトの名無しさん:2015/06/22(月) 06:10:28.56 ID:WAMJP5Js
recurrentなんじゃないの?(適当)

801 :デフォルトの名無しさん:2015/06/22(月) 23:12:33.27 ID:Ad1bCtTw
1990年代にMRIが実用化して、これで脳が分かると期待したが、結局、脳に血流があるということ以外、何も分からなかった

802 :デフォルトの名無しさん:2015/06/22(月) 23:15:39.33 ID:3NjMIESe
そりゃ解像度がでないもんよ

803 :デフォルトの名無しさん:2015/06/23(火) 00:31:32.66 ID:Uju7yY+s
>>785
誤差逆伝搬法って、3層以上は等価じゃなかった?

804 :デフォルトの名無しさん:2015/06/23(火) 00:33:07.55 ID:Uju7yY+s
コネクショニストは屑。ソースは俺の卒論指導の担当教官。

805 :デフォルトの名無しさん:2015/06/23(火) 09:21:29.92 ID:AOM31ZzX
特異値分解の最速アルゴリズム教えてください
GPU実装できるのがいいです

806 :デフォルトの名無しさん:2015/06/23(火) 09:41:50.17 ID:/uyFB8Id
>>804
うるせー

807 :デフォルトの名無しさん:2015/06/23(火) 13:30:38.36 ID:DUXK3D31
SVDのルーチンなんてそこらへんに転がってるだろ。自分で実装するより
あるもの使えよ

808 :デフォルトの名無しさん:2015/06/23(火) 22:25:24.07 ID:Uju7yY+s
IBMのBlueGeneとか呼ばれたコネクトームって何を生み出したんだ

809 :デフォルトの名無しさん:2015/06/23(火) 22:31:02.07 ID:BLagspg6
青い蘭

810 :デフォルトの名無しさん:2015/06/24(水) 21:41:33.95 ID:JO8sPd+Q
大学の講義なんてサボってAndrewNgの無料講義を視聴した方が良い

811 :デフォルトの名無しさん:2015/06/24(水) 21:48:12.29 ID:2ioOiul5
これか
ttp://videolectures.net/stanfordcs229f08_ng_lec01/

812 :デフォルトの名無しさん:2015/06/24(水) 22:52:02.82 ID:RNNpRBpA
stanford大だったらどうするんだよ

813 :デフォルトの名無しさん:2015/06/29(月) 01:57:02.72 ID:U4ywKE5r
chainerいいな
書きやすい

814 :デフォルトの名無しさん:2015/06/29(月) 11:30:36.19 ID:e5zgfmnD
誰がscalaで機械学習ライブラリ作ってくれよ
pythonはもういいよ

815 :デフォルトの名無しさん:2015/06/29(月) 15:22:43.05 ID:k+90EXgh
ディープラーニングがまた一段、階段を上ったのです。
http://techon.nikkeibp.co.jp/article/COLUMN/20150626/425124/?ST=robot&P=3
http://techon.nikkeibp.co.jp/article/NEWS/20150511/417785/

816 :デフォルトの名無しさん:2015/06/29(月) 15:29:26.14 ID:pjeue+GP
>>815
ようやく瓦礫をこえられるようになったか、廃炉に一歩近づいたな

817 :デフォルトの名無しさん:2015/06/29(月) 15:51:42.83 ID:G8R1zMir
野澤 哲生って誰だよ

818 :デフォルトの名無しさん:2015/06/29(月) 17:16:01.22 ID:vIKA4JAU
宣伝なんか貼らずにちゃんとしたソース貼れよ
ttp://places.csail.mit.edu/

819 :デフォルトの名無しさん:2015/06/29(月) 22:08:42.23 ID:1Z3fG+wm
状態空間ってカルマンフィルターとかその辺はなんとなくわかったんだけど
パラメータ推定って結局どうやるのがいいんだ
最尤法?最初だけベイズ推定?

820 :デフォルトの名無しさん:2015/06/30(火) 14:51:53.91 ID:HPXFOTKK
pythonをjavaから呼ぶ方法なんていくらでもあるだろ

821 :デフォルトの名無しさん:2015/07/02(木) 20:11:30.50 ID:wEzhB3Fl
【IT】Googleフォト、黒人を誤って「ゴリラ」とタグ©2ch.net
http://daily.2ch.net/test/read.cgi/newsplus/1435809664/

822 :デフォルトの名無しさん:2015/07/03(金) 09:22:34.30 ID:UFh7Oq4r
見分けがつかない証拠だよな(笑

823 :デフォルトの名無しさん:2015/07/03(金) 19:48:33.30 ID:/0jI1Lpb
あながち(ry

824 :デフォルトの名無しさん:2015/07/04(土) 15:10:27.66 ID:bvVchkE4
今に人工知能が世界を支配するとか恐れてる奴結構いるけど、
画像認識の一点だけでもまだまだ人間に遠く及ばないのが現実なんだよな

825 :デフォルトの名無しさん:2015/07/04(土) 15:27:12.31 ID:oSvuhT9J
65年前からw

826 :デフォルトの名無しさん:2015/07/04(土) 16:50:25.96 ID:ZqQG1FZf
こっちのスレのほうがよかったか

貴重な資料を後世に--江戸期以前の“くずし字”を判読するOCR技術が凸版印刷から
http://internetcom.jp/busnews/20150703/ocr-technology-for-old-hiragana-characters.html

827 :デフォルトの名無しさん:2015/07/05(日) 01:42:22.79 ID:oyvjaAf4
別に画期的技術じゃないだろ

828 :デフォルトの名無しさん:2015/07/06(月) 05:56:51.70 ID:wi6Zd6Ou
>>824
画像認識は難しいからな

829 :デフォルトの名無しさん:2015/07/06(月) 08:34:10.21 ID:sQzAHBpL
ベクターやメタ情報を含んだファイルフォーマットが普及するのが先

830 :デフォルトの名無しさん:2015/07/06(月) 12:03:44.06 ID:G59IGydA
タグ付けが必要でしょうねえ
人間だって何かしらタグを読んでる
全く情報のないものを認識することはない

831 :デフォルトの名無しさん:2015/07/06(月) 21:25:41.51 ID:xsoAlNnU
最近は画像処理の機械学習急激に進歩してるよ
もう基本的なことを抑えちゃってるからほとんど人間に近いと言っても過言じゃない
十年以内に人間ができることならほとんどできるようになると俺は見てる

832 :デフォルトの名無しさん:2015/07/06(月) 21:32:27.79 ID:3TBpgtG4
3年後に実用化を目指すw

833 :デフォルトの名無しさん:2015/07/06(月) 21:39:04.83 ID:m90nGVji
>>830
もうタグっていうかラベルなんてほとんど付けなくても理解できるようになりつつあるんだよ
見た事ない物体含まれててもその境界線を認識できてる
CNNあたりの手法ががさらに洗練されて、なおかつここが一番大事だけどハード側の計算能力が上がれば5年後には一変してるよ
今は低解像度でシコシコ精度上げてる段階

言語処理の方が先にブレークスルーと思われてたけど完全に画像映像の方が研究進んでる
後者の方が適用範囲広くてお金になるから参入プレイヤーが圧倒的に多いからっぽい
言語は前提知識をニューラルネットワークに教えこませるのが難しくて停滞中

834 :デフォルトの名無しさん:2015/07/06(月) 21:50:19.07 ID:xsoAlNnU
GPUの進歩も続いてるしな

835 :デフォルトの名無しさん:2015/07/06(月) 22:08:33.47 ID:sYr/dgVc
基本的な疑問かもしれないけど
人間ができることってことにどのようなことが含まれるのかに興味があるな
境界がどこらへんにあるのか

836 :デフォルトの名無しさん:2015/07/06(月) 22:21:02.84 ID:xsoAlNnU
もうシーン認識まで来ちゃってるからな
動体シーン認識まで数年で到達する気がする

837 :デフォルトの名無しさん:2015/07/06(月) 22:25:24.24 ID:wqF6enB/
ほらにきまってんだろ、しろうとが

838 :デフォルトの名無しさん:2015/07/06(月) 22:57:42.76 ID:FWh0BpIe
ディープラーニングを中心に据えたベンチャー企業が増えてるっぽいけど成功する気がしないよな

839 :デフォルトの名無しさん:2015/07/06(月) 23:08:57.86 ID:xsoAlNnU
>>837
こんだけデータ大量に手に入る時代ならそれくらいできておかしくない

840 :デフォルトの名無しさん:2015/07/07(火) 00:08:46.69 ID:7NMOtYJk
よかったねw

841 :デフォルトの名無しさん:2015/07/07(火) 12:03:53.50 ID:KOABKGcv
もう論文でてるよそれ

842 :デフォルトの名無しさん:2015/07/07(火) 12:51:01.18 ID:y9jINuhY
そう。
特別すごいことじゃないよね

843 :デフォルトの名無しさん:2015/07/07(火) 14:04:15.28 ID:psK7oyWq
精度の格付けや誤認識の検出・訂正を専門とするベンチャーが出てきたら成功と認めよう

844 :デフォルトの名無しさん:2015/07/07(火) 14:08:41.66 ID:FnzesGwH
画像認識なんてちゃらっとつくって
会社ごと売る気だろ

自分達でビジネスにしようなんて思ってない

845 :デフォルトの名無しさん:2015/07/07(火) 14:14:00.53 ID:y9jINuhY
誤検出の検出訂正ってベンチマークでやることだろ

846 :デフォルトの名無しさん:2015/07/07(火) 20:35:18.79 ID:psK7oyWq
各自バラバラにやらせたらそれぞれのテーマに沿ったベンチマークにしかならんじゃろ

まさに悪夢、Googleの人工知能「DeepDream」でムービーを作成したらとんでもないことに
http://gigazine.net/news/20150707-deep-dreaming-fear/
※グロ注意 かなりクル

847 :デフォルトの名無しさん:2015/07/07(火) 20:51:59.04 ID:4LWIRkTS
社会性を持たない動物でも高度な視覚を持ってるから画像処理は機械学習としてはかなり原始的なんだろ
自然言語処理は社会性に関わるから難しい

848 :デフォルトの名無しさん:2015/07/07(火) 21:07:30.74 ID:itduTrPd
>>846
暗い部分に変なものが描画されることが多いね。
幽霊が夜に見えるのはこういうことかー

849 :デフォルトの名無しさん:2015/07/08(水) 06:10:59.64 ID:iCYqIP+y
ベルセルクっぽい

850 :デフォルトの名無しさん:2015/07/08(水) 11:10:58.06 ID:i7xBLVJ6
チンパンジーって欠けた画像を補う能力ないらしいね
そろそろチンパンジー超えてきたんじゃない?

851 :デフォルトの名無しさん:2015/07/08(水) 13:00:37.49 ID:Fq9++w1L
そうなの?

852 :デフォルトの名無しさん:2015/07/08(水) 13:07:34.26 ID:aMiDshHv
>>850
お前アイちゃんか。

853 :デフォルトの名無しさん:2015/07/08(水) 21:09:41.94 ID:fZtK/Isb
アイを信じられない人よりは幸せ〜

854 :デフォルトの名無しさん:2015/07/08(水) 21:34:53.17 ID:EN21AwE3
擾乱の中で認識できるようになることが重要とマジレス

855 :デフォルトの名無しさん:2015/07/08(水) 21:50:50.91 ID:Y+kE74C9
CAPTCHAは役に立たなくなるのか

856 :デフォルトの名無しさん:2015/07/09(木) 17:36:14.50 ID:qeFNJkau
ディープラーニングが、既存の次元削減の技術を重ねがけした場合とどう違うのかいまいちよくわからん

857 :デフォルトの名無しさん:2015/07/09(木) 17:48:54.96 ID:duB5bGF5
>>856
次元削減の繰り返しはCNNの中の特徴抽出部分だからだいぶピンポイントやな。
ディープラーニングはCNNとRBNなんかの総称だから比較対象ではないわな

858 :デフォルトの名無しさん:2015/07/09(木) 18:19:36.34 ID:URD0Dy98
次元削減は目標
ディープラーニングは手段

859 :デフォルトの名無しさん:2015/07/09(木) 19:16:40.54 ID:W//6tMzI
郵便局で文字認識してるニューラルネットもディープラーニングの結果なんだよね?
30年前の技術じゃん

860 :デフォルトの名無しさん:2015/07/09(木) 19:55:10.88 ID:6vMhhj3X
Deep Learning の次は、TDA 「トポロジカル・データ・アナリシス」 (Topological data analysis) が来る ?
http://qiita.com/HirofumiYashima/items/b07483af7ef31c30dacc

861 :デフォルトの名無しさん:2015/07/09(木) 22:28:50.91 ID:KuBEloYJ
>>859
昔郵便局見学ですごい速さで振り分けてるの見てすげーと思った

862 :デフォルトの名無しさん:2015/07/09(木) 22:41:19.30 ID:CYgLBr68
>>859
DeepじゃないNNだろ?

863 :デフォルトの名無しさん:2015/07/09(木) 22:56:53.32 ID:omdvRNlz
ボルツマンマシンは組み合わせも加味してるから非線形関数を学習できるのか

864 :デフォルトの名無しさん:2015/07/10(金) 04:20:12.88 ID:2yyYcCv6
画像認識と機械学習で研究テーマ思いつかない

865 :デフォルトの名無しさん:2015/07/10(金) 04:44:16.98 ID:i8j8UZ8Q
情報幾何学と何が違うんだ?

866 :デフォルトの名無しさん:2015/07/10(金) 10:24:55.67 ID:J9RVHdph
情報幾何学てなーに、役にたつの?

867 :デフォルトの名無しさん:2015/07/10(金) 10:44:55.59 ID:y0qUHwCS
ggrks

868 :デフォルトの名無しさん:2015/07/10(金) 11:53:30.92 ID:hFO9qHws
説明できない、せいがくかよ

869 :デフォルトの名無しさん:2015/07/11(土) 06:49:19.68 ID:C8cgx19B
情報幾何学はモデルを幾何学的に解釈しようとする試み
TDAは従来の可視化技術にディープラーニングを持ち込んで何か新しいことをやっているように見せているだけのこけおどし

870 :デフォルトの名無しさん:2015/07/11(土) 07:10:17.90 ID:H8fm0Kde
30年も試みやってんだ

871 :デフォルトの名無しさん:2015/07/11(土) 07:28:11.59 ID:C8cgx19B
それだけ時間がかかる
NNも長年やっていたカナダチームがいたから
ディープラーニングにできた
アホには理解できないだろうけどね

872 :デフォルトの名無しさん:2015/07/11(土) 07:40:47.29 ID:H8fm0Kde
甘利じいさんにおこられたくないから遠慮するw

873 :デフォルトの名無しさん:2015/07/11(土) 17:50:25.33 ID:pDfuw78x
昔は監視カメラの解析なんて
中小企業でやってる遊びみたいなもんだったのに
今や自動車会社でも総合電気でも引っ張りだこやね

874 :デフォルトの名無しさん:2015/07/11(土) 21:17:15.24 ID:YBLDogaJ
平和やね

875 :デフォルトの名無しさん:2015/07/11(土) 23:19:17.72 ID:KsFdgIMe
画像認識なんてハードのお供え物

876 :デフォルトの名無しさん:2015/07/13(月) 01:10:01.28 ID:P1H61xUb
deeplearning4s なんてのが出来てるぞ。dl4j の scalaラッパーらしい

877 :デフォルトの名無しさん:2015/07/13(月) 02:18:45.21 ID:csYIW6JY
「人生の意味」を教えてくれる、グーグルの自己学習するチャットボット
http://wired.jp/2015/07/12/chatbot-debates-meaning-life/

878 :デフォルトの名無しさん:2015/07/13(月) 05:11:35.57 ID:qCLpbV6I
リーは、このプロジェクトのなかで、機械が道徳性についてなんと答えるかにいちばんワクワクした、と言って笑う。
この研究では、実は機械と同じくらい、わたしたち自身のことがわかるのだ。ω

879 :デフォルトの名無しさん:2015/07/13(月) 17:30:59.28 ID:DWd3RY+i
cuDNN使ってる?

880 :デフォルトの名無しさん:2015/07/13(月) 21:48:13.58 ID:BK2wG7MT
はい
入れるだけで対応ライブラリだと速くなりますし

881 :デフォルトの名無しさん:2015/07/14(火) 15:57:50.70 ID:11oCsipp
どの位?

882 :デフォルトの名無しさん:2015/07/14(火) 17:47:16.45 ID:/rIDhLJ9
音声処理って聞かないと今どうなってんの

883 :デフォルトの名無しさん:2015/07/14(火) 18:23:06.09 ID:y+MadtHo
>>882
自動生成を大学の卒業研究発表でみたけど、人間と変わらないよ
声優さんは仕事がなくなると思った

884 :デフォルトの名無しさん:2015/07/14(火) 22:45:07.96 ID:96cgO9+i
>>881
やる処理によってマチマチなので一概に言えないけど、最速のだと2割速くなったりする
全然変わらない場合もある
入れることによるデメリットは無いのでとりあえず入れてみるといいよ

885 :デフォルトの名無しさん:2015/07/14(火) 22:45:59.61 ID:XFkoLYif
GPUってはやってるのかね?

886 :デフォルトの名無しさん:2015/07/15(水) 02:48:00.91 ID:GjIO3reB
NN系ならもう必須なレベルでしょう
今頃CPUでやってるのは学生さんのお遊びであって研究でも仕事でも無い感じ

887 :デフォルトの名無しさん:2015/07/15(水) 03:27:08.56 ID:o49FUb48
CPUだとmnistの学習ですら半日かかったし、GPUないと厳しいわ

888 :デフォルトの名無しさん:2015/07/15(水) 20:56:07.41 ID:70iQnSqB
新たなるオライリー本か?
http://www.amazon.co.jp/dp/B00TN97BE2

889 :デフォルトの名無しさん:2015/07/15(水) 21:16:16.99 ID:DnBjI53m
紛らわしいものを載せるなよ。無関係

890 :デフォルトの名無しさん:2015/07/16(木) 11:42:24.89 ID:ZKtxfO1P
機械学習とはモデルの最適化ですか?

891 :デフォルトの名無しさん:2015/07/16(木) 15:04:02.16 ID:4WfZgLum
caffeとかフレームワークに頼ってるのは
GPU使ってるうちに入らないよ(^^;

892 :デフォルトの名無しさん:2015/07/16(木) 15:06:40.85 ID:aFZsDjAH
どうしてるの?

893 :デフォルトの名無しさん:2015/07/16(木) 15:18:55.06 ID:TXl70TR8
non caffain

894 :デフォルトの名無しさん:2015/07/17(金) 00:21:34.20 ID:yOfD0du5
891は目的と手段の区別がつかない馬鹿だと宣伝したいの?

895 :デフォルトの名無しさん:2015/07/17(金) 02:56:12.51 ID:Q5NeHwNe
CaffeはPython から使ってる人が一番多いのかな?

896 :デフォルトの名無しさん:2015/07/17(金) 17:12:07.78 ID:ksewXINg
音声と画像ってもともと不可逆圧縮がそうとう研究されてるから自然言語処理に比べて楽だろ

897 :デフォルトの名無しさん:2015/07/18(土) 08:46:05.92 ID:gLKijreO
??

898 :デフォルトの名無しさん:2015/07/18(土) 09:24:42.86 ID:BejtfKMJ
音声、画像と自然言語処理、知ってる単語を並べてみましたw

899 :デフォルトの名無しさん:2015/07/18(土) 13:53:10.77 ID:1dCgaP/A
くるしゅうない

900 :デフォルトの名無しさん:2015/07/19(日) 17:19:18.42 ID:+rneIk/0
minicondaとanaconda、どっち使ってる?

901 :デフォルトの名無しさん:2015/07/19(日) 17:28:08.27 ID:lCggQN60
ちこうよれ、ほうびはなにをのぞむ

902 :デフォルトの名無しさん:2015/07/19(日) 21:00:19.71 ID:GTy1Iq0V
http://nnadl-ja.github.io/nnadl_site_ja/
ここが機械学習の入門として解りやすそうなのに肝心の1章が未翻訳(T_T)
入門とした最適なドキュメントって他にあります?

903 :デフォルトの名無しさん:2015/07/19(日) 22:44:05.75 ID:j8JsOtsJ
Ng先生の講義なら全文翻訳されてるし内容も良いぞ

904 :デフォルトの名無しさん:2015/07/20(月) 09:15:28.51 ID:ujyQzwp9
>>903
courseraの Machine Learningコースの事であってます?
早速受けてみます

905 :デフォルトの名無しさん:2015/07/20(月) 10:22:53.49 ID:qKGNP85w
字幕が読みにくくてなあ
なんとかならんもんかいな

906 :デフォルトの名無しさん:2015/07/20(月) 11:18:12.50 ID:ujyQzwp9
>>904
すんません。
機械学習=ニューラルネットワークだと勘違いしてました。
ニューラルネットワークに特化して勉強したい場合は、やっぱり902の内容が早い気がします。でも翻訳しながら学ぶのシンドイ。困った。

907 :デフォルトの名無しさん:2015/07/20(月) 11:38:36.59 ID:ryHUZPs4
>>906
本気でコンピューターの知識を得るなら英語も頑張るんですよ

908 :デフォルトの名無しさん:2015/07/20(月) 12:09:54.80 ID:ujyQzwp9
>>907
ですねー。でもNG先生の講座見てたら、ニューラルネットワークでも、線形回帰でも
目的関数の最小化問題を解くという点では同じなんだとわかったので、
まずはNG先生の講座を勉強して902のドキュメントに戻ってみます。

909 :デフォルトの名無しさん:2015/07/20(月) 12:28:21.15 ID:/9rbYZsg
最適化問題を解くという点で同じって言われるとみんなそうなんだよ

910 :デフォルトの名無しさん:2015/07/20(月) 14:40:25.64 ID:71uELSBb
>>908
ニューラルネットワーク pdf でggrksど素人

911 :デフォルトの名無しさん:2015/07/21(火) 16:57:54.81 ID:u7chg6It
NG先生って誰?

912 :デフォルトの名無しさん:2015/07/21(火) 17:03:27.82 ID:YBMacc01
no good 先生

913 :デフォルトの名無しさん:2015/07/22(水) 01:44:24.05 ID:QxADGNZ9
今はBaiduにいるらしい

914 :デフォルトの名無しさん:2015/07/22(水) 13:37:08.68 ID:NEjmtBwQ
>>907
てか、ほんの少しwordpress触るだけで必要だから

>>911
AngularJSといい、Andrew Ngといい、秘密結社の陰謀みたいなもんだよ

915 :デフォルトの名無しさん:2015/07/23(木) 16:14:25.21 ID:ajMlFCqy
NNの活性化関数って統計学的にどういう意味をもってるんですか?
最小二乗法、主成分分析なら誤差最小化だし、最尤推定なら正規分布当てはめだし

916 :デフォルトの名無しさん:2015/07/23(木) 18:14:43.65 ID:NPfn2lwl
いい質問

917 :デフォルトの名無しさん:2015/07/23(木) 18:38:23.49 ID:vu62CQPy
イミフw

918 :デフォルトの名無しさん:2015/07/23(木) 18:41:35.18 ID:pVq3d0Vm
NG先生の講座はcourseraとYouTubeにあるけど
前者の方が新しいという理解でいいのかな?

919 :デフォルトの名無しさん:2015/07/23(木) 19:53:54.66 ID:ypBahwmZ
>>915
最尤推定が正規分布当てはめってどういうこと?

920 :デフォルトの名無しさん:2015/07/23(木) 21:53:31.25 ID:bNJIoU7G
NG先生の講座、すごく面白いです。
定期的に、試験があるので、モチベーション維持しやすいし、
課題で実際に実装が試せるのも楽しいっす。
octaveもセットで覚えられるのもメリットですね。
早くmacで4.0使えるようになって欲しいです。

921 :デフォルトの名無しさん:2015/07/23(木) 22:19:17.52 ID:SfeFRjWk
宣伝乙

922 :デフォルトの名無しさん:2015/07/24(金) 06:34:12.28 ID:b5zEFTH1
rnnlibインスコ出来た奴いる?

923 :デフォルトの名無しさん:2015/07/24(金) 14:41:21.51 ID:V1CwtiDS
だからNG先生って誰なんだよ

924 :デフォルトの名無しさん:2015/07/24(金) 15:26:42.52 ID:SUekVQLo
not good先生

925 :デフォルトの名無しさん:2015/07/24(金) 17:47:45.35 ID:38crHf0X
NG is Not Google.

926 :デフォルトの名無しさん:2015/07/26(日) 22:23:57.07 ID:5Y/iTQp1
ここは過疎の村

927 :デフォルトの名無しさん:2015/07/27(月) 03:19:56.96 ID:E3djSeC3
ここにいる人って研究者の方が大半なんですか?
NG先生の講義完了させたって人どれくらいいます?

928 :デフォルトの名無しさん:2015/07/27(月) 09:59:46.98 ID:dH9VLuAY
ここでの調査はお断りいたします

929 :デフォルトの名無しさん:2015/07/27(月) 23:11:49.73 ID:bZbt4Tof
研究者に資格はありません
自分で「研究者だ」と宣言した瞬間に、あなたも研究者です

930 :デフォルトの名無しさん:2015/07/27(月) 23:25:44.55 ID:3rDgdwxH
ディープラーニングって正解付データが膨大にあること前提?

931 :デフォルトの名無しさん:2015/07/28(火) 06:41:22.40 ID:yWzlqXW1
は?

932 :デフォルトの名無しさん:2015/07/28(火) 20:16:22.41 ID:mfA66W0c
>>930
従来手法よりはデータ少なくても精度出せるようになってる感じ
autoencoder使って教師無しデータで事前学習していい初期値を得てから少ない正解データで学習させる
あとドロップアウトとかノイズ加えることで同じ正解データを使い回せるし

933 :デフォルトの名無しさん:2015/07/30(木) 02:32:57.14 ID:5ehQe9X2
Sparkring Waterいじってる人いる?

934 :デフォルトの名無しさん:2015/07/31(金) 00:44:57.98 ID:0wllXfpy
みんな自分でニューラルネット書いたりしないん?
パラメータ弄ってるだけ?

935 :デフォルトの名無しさん:2015/07/31(金) 00:49:56.39 ID:9fVlTY0E
最初に一度書けばそれで十分じゃないかな

936 :デフォルトの名無しさん:2015/07/31(金) 01:27:24.13 ID:rZ9nEI3P
勉強のために実装はしたことあるけど
普段は既存のライブラリ利用してるな

937 :デフォルトの名無しさん:2015/07/31(金) 06:28:24.22 ID:At12YIC5
rnnはどれ使ってる?

938 :デフォルトの名無しさん:2015/07/31(金) 09:24:53.35 ID:NxQt3Ik0
潜水艦のソナー音から認識するプログラムを書きました

939 :デフォルトの名無しさん:2015/07/31(金) 11:55:01.96 ID:lqUa+wdp
なにそれ面白そう
kwsk

940 :デフォルトの名無しさん:2015/07/31(金) 14:24:41.36 ID:jJ7v370/
ttp://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.299.8959&rep=rep1&type=pdf

941 :デフォルトの名無しさん:2015/07/31(金) 14:27:03.43 ID:jJ7v370/
ttps://archive.ics.uci.edu/ml/datasets/Connectionist+Bench+%28Sonar,+Mines+vs.+Rocks%29

942 :デフォルトの名無しさん:2015/07/31(金) 18:34:16.89 ID:vDM0q5RF
↑やるじゃん!

943 :デフォルトの名無しさん:2015/07/31(金) 23:57:05.71 ID:XVOR+hAy
>>934
確認したいんだけど、脳ミソで行う普段の思考もニューラルネットいじってることになるんだよね?

944 :デフォルトの名無しさん:2015/08/01(土) 11:00:39.28 ID:o4gZ6nE9
>>943
そうやで

945 :デフォルトの名無しさん:2015/08/01(土) 11:05:46.87 ID:tGEWWoEZ
いじっちゃいやーん

946 :デフォルトの名無しさん:2015/08/01(土) 13:26:36.91 ID:6MBLl+eo
線形代数って深いな

947 :デフォルトの名無しさん:2015/08/01(土) 14:43:29.15 ID:5hNjkXf1
>>946
octaveとかでニューラルネットークいじるときに便利そうだとは思ったけど
転置行列使ってると混乱する。いずれ分かるようになるのかな。

948 :デフォルトの名無しさん:2015/08/01(土) 14:44:39.72 ID:6MBLl+eo
何を混乱するのかわからん

949 :デフォルトの名無しさん:2015/08/01(土) 15:37:55.36 ID:c0YSrVc+
線形代数と線形代数の行列とベクトルでの表現がニューラルネットに向いていないと思うのは俺だけだろうか…

950 :デフォルトの名無しさん:2015/08/01(土) 15:39:43.90 ID:6MBLl+eo
ああ、ベクトルと行列が見にくいって話ね
それは俺もそう思う

951 :デフォルトの名無しさん:2015/08/03(月) 21:50:24.57 ID:jvIE14lC
教師付き学習ってクラスが決まってる場合での分類問題なのか

952 :デフォルトの名無しさん:2015/08/03(月) 22:11:56.17 ID:QY3x+4q2
>>950
一旦紙に書き下してからじゃないと、混乱してoctaveに行列式を書けないんですよね。
いっその事for-loopで回してやろうかという誘惑と毎度戦うのが辛い。
いずれ、慣れれば脳内で処理できるようになりますか?

953 :デフォルトの名無しさん:2015/08/03(月) 23:24:13.69 ID:EOC7vuhc
非線形なのに線形代数で記述しようとしてる点に一番の問題があると思う

954 :デフォルトの名無しさん:2015/08/03(月) 23:55:34.33 ID:jvIE14lC
NNは線形結合だからいいんだよ
多層NNじゃないと非線形にならない

955 :デフォルトの名無しさん:2015/08/04(火) 05:48:47.96 ID:Pah+3Drc
おまえら難しい話してんな
もっとやれ

956 :デフォルトの名無しさん:2015/08/04(火) 06:26:55.46 ID:ieCnu/t/
享受無し学習はC/C++で自作した
スクリプトとはやはり速度が違う

957 :デフォルトの名無しさん:2015/08/04(火) 06:28:13.52 ID:ieCnu/t/
>>956
間違ぇた
享受じゃなくて教師な

958 :デフォルトの名無しさん:2015/08/04(火) 07:37:36.25 ID:L0NxkP+v
brnnのライブラリってどっかにない?
自分で書くの面倒くさいんだが

959 :デフォルトの名無しさん:2015/08/04(火) 10:28:14.47 ID:qYfWL+tl
つmatlab

960 :デフォルトの名無しさん:2015/08/04(火) 19:35:25.71 ID:2uDI9yRF
やっぱPythonが今はメジャーなんだな

961 :デフォルトの名無しさん:2015/08/04(火) 21:33:37.83 ID:lZDXbuRC
なんでスクリプト言語が支配的なん?
多次元配列とか行列扱うなら絶対型あり言語のが書きやすい、読みやすいと思うんだけど。

962 :デフォルトの名無しさん:2015/08/04(火) 21:36:11.50 ID:jLTiwGPt
Python厨だろ

963 :デフォルトの名無しさん:2015/08/04(火) 21:42:01.15 ID:eMvPKlqH
プログラムプロパーじゃなくて数学やってる側からは
C++とかよりスクリプトのほうが使いやすいんじゃね

964 :デフォルトの名無しさん:2015/08/05(水) 11:24:07.94 ID:5DUWWQgB
BASIC で他人にやらせようとする老害を最近見かけた

965 :デフォルトの名無しさん:2015/08/05(水) 17:14:40.97 ID:DO8hxyD8
basicはゴミにしか見えない
特にあのendifとか何なのって思った
(Javaからはじめました)

966 :デフォルトの名無しさん:2015/08/05(水) 20:25:35.44 ID:Whj6iros
>>964-965 scratchでやれたら、面白いね。

967 :デフォルトの名無しさん:2015/08/05(水) 20:27:00.07 ID:aOIvssx3
片山降臨w

968 :デフォルトの名無しさん:2015/08/06(木) 10:57:40.38 ID:QgR+pLmA
線形代数は図形的な意味を考えないとだめだ

969 :デフォルトの名無しさん:2015/08/06(木) 11:32:27.05 ID:0diMEOFa
>>968
詳しく教えて下さい。

970 :デフォルトの名無しさん:2015/08/06(木) 22:29:01.88 ID:I0bA/WKM
いやそのままの意味だけど

971 :デフォルトの名無しさん:2015/08/06(木) 22:33:30.27 ID:6mpuqzvP
非線型をなぜ行列で表せるw

972 :デフォルトの名無しさん:2015/08/07(金) 09:12:05.13 ID:h0qhk1T0
またその話か

973 :デフォルトの名無しさん:2015/08/07(金) 19:48:13.15 ID:AqMi0On+
中身がわからなくても部品が使えるのがPython の最大の利点

974 :デフォルトの名無しさん:2015/08/07(金) 23:00:23.92 ID:eSh4n7lV
それはどの言語でも同じなんじゃないの

975 :デフォルトの名無しさん:2015/08/07(金) 23:15:00.14 ID:kPH4MtZ6
OO言語だとオブジェクトの複雑さは隠蔽されるし、
誤った使い方をすれば実行時に検出されるので気づきやすい。

976 :デフォルトの名無しさん:2015/08/08(土) 01:10:09.17 ID:8S1r7VfM
NNは線形結合だが、非負値しか取らないんだなぁ

977 :デフォルトの名無しさん:2015/08/08(土) 07:42:47.93 ID:qpVe23su
え、普通にとることあるでしょ

978 :デフォルトの名無しさん:2015/08/08(土) 13:57:38.00 ID:sIHWU5bW
pythonが嫌いって
google陰謀論かなにかなの?

979 :デフォルトの名無しさん:2015/08/08(土) 14:43:55.57 ID:Uc25d9Au
ユダヤの陰謀、ムーに出てたw

980 :デフォルトの名無しさん:2015/08/09(日) 17:49:31.55 ID:slMIl7dm
定量データをダミー変数化するときに用いる手法とかアルゴリズムってある?
基本的なことのように思えるが、調べてもそれっぽいものがない

981 :デフォルトの名無しさん:2015/08/09(日) 20:17:52.74 ID:5b1B6SNj
pandasならget_dummiesでいいんじゃない
Rとかでもたぶん似たようなのあるでしょ
普段何使ってるのか知らんけど

213 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.02 2018/11/22 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)