 |
 |
|
|
|
|
| |
 |
基本原理:Julia の環境 訳:高尾 克也 |
|
 |
| 1.1 | Julia は独特である |
| 1.2 | 環境構築 |
| 1.2.1 | Julia のインストール(Linux) |
| 1.2.2 | Julia のインストール(Mac) |
| 1.2.3 | Julia のインストール(Windows) |
| 1.2.4 | ソースコードの探索 |
| 1.3 | REPL の使用 |
| 1.4 | Jupyter Notebook の使用 |
| 1.5 | パッケージ管理 |
| 1.5.1 | Pkg.status() パッケージのステータス |
| 1.5.2 | Pkg.add() パッケージの追加 |
| 1.5.3 | 登録されていないパッケージの使用 |
|
|
| (1) | Pkg.update() パッケージの更新 |
| 1.5.4 | METADATA リポジトリ |
| 1.5.5 | パッケージの開発 |
| 1.5.6 | 新規パッケージの作成 |
| 1.6 | Julia を用いた並列計算 |
| 1.7 | Julia の重要な特徴:多重ディスパッチ |
| 1.7.1 | 多重ディスパッチにおけるメソッド |
| 1.7.2 | 曖昧さ:メソッド定義 |
| 1.8 | 言語相互運用性の促進 |
| 1.8.1 | Julia での Python コードの呼び出し |
| 1.9 | まとめ |
| | References |
|
| |
 |
データマンジング 訳:中村 和敬 |
|
 |
| 2.1 | データマンジングとは何か? |
| 2.1.1 | データマンジングのプロセス |
| 2.2 | DataFrame とは何か? |
| 2.2.1 | NA データ型とその重要性 |
| 2.2.2 | DataArray:シリーズ様のデータ構造 |
| 2.2.3 | DataFrame:表形式のテーブルデータ構造 |
| 2.2.4 | DataFrames.jl のインストールと使用法 |
| (1) | データのファイルへの書き込み |
| 2.2.5 | DataFrame の操作 |
|
|
| (1) | DataFrame 結合操作の理解 |
| 2.2.6 | 分割-適用-統合戦略 |
| 2.2.7 | データの再成形 |
| 2.2.8 | データ集合のソート |
| 2.2.9 | formula:数式のための特別なデータ型 |
| 2.2.10 | データのプール |
| 2.2.11 | Web スクレイピング |
| 2.3 | まとめ |
| | References |
|
| |
 |
データ探索 訳:岩中 公紀 |
|
 |
| 3.1 | サンプリング |
| 3.1.1 | 母集団 |
| 3.1.2 | 重みベクトル |
| 3.2 | 列型の推定 |
| 3.3 | 基本要約統計量 |
| 3.3.1 | 配列または DataFrame の平均値の計算 |
| 3.4 | スカラー統計量 |
| 3.4.1 | 標準偏差と分散 |
| 3.5 | 変動の計量値 |
| 3.5.1 | z スコア |
| 3.5.2 | エントロピー |
|
|
| 3.5.3 | 四分位数 |
| 3.5.4 | モード(最頻値) |
| 3.5.5 | データ集合の要約 |
| 3.6 | 散乱行列と共分散 |
| 3.7 | 偏差の計算 |
| 3.8 | ランキング |
| 3.9 | 計数を行う関数(カウント関数) |
| 3.10 | ヒストグラム |
| 3.11 | 相関分析 |
| 3.12 | まとめ |
| | References |
|
| |
 |
推測統計学に深く踏み込む 訳:菅野 剛 |
|
 |
| 4.1 | インストール |
| 4.2 | 標本分布の理解 |
| 4.3 | 正規分布の理解 |
| 4.3.1 | パラメータ推定 |
| 4.4 | Distributions.jl の型ヒエラルキー |
| 4.4.1 | Sampleable の理解 |
| (1) | 確率分布の表現 |
| 4.5 | 単変量分布 |
| 4.5.1 | パラメータの抽出 |
| 4.5.2 | 統計関数 |
| 4.5.3 | 確率の評価 |
| 4.5.4 | 単変量分布での標本抽出 |
| 4.5.5 | 離散型単変量分布とその型の理解 |
| (1) | ベルヌーイ分布 |
| (2) | 二項分布 |
| 4.5.6 | 連続型分布 |
| (1) | コーシー分布 |
| (2) | カイ分布 |
| (3) | カイ二乗分布 |
| 4.6 | 切断分布 |
| 4.6.1 | 切断正規分布 |
| 4.7 | 多変量分布の理解 |
| 4.7.1 | 多項分布 |
|
|
| 4.7.2 | 多変量正規分布 |
| 4.7.3 | ディリクレ分布 |
| 4.8 | 行列変量分布の理解 |
| 4.8.1 | ウィッシャート分布 |
| 4.8.2 | 逆ウィッシャート分布 |
| 4.9 | 分布の当てはめ |
| 4.9.1 | 分布の選択 |
| (1) | 対称な分布 |
| (2) | 右に歪んだ分布 |
| (3) | 左に歪んだ分布 |
| 4.9.2 | 最尤推定 |
| 4.9.3 | 十分統計量 |
| 4.9.4 | 最大事後確率(MAP)推定 |
| 4.10 | 信頼区間 |
| 4.10.1 | 信頼区間の解釈 |
| (1) | 使用法 |
| 4.11 | z スコアの理解 |
| 4.11.1 | z スコアの解釈 |
| 4.12 | p 値の有意性の理解 |
| 4.12.1 | 片側検定と両側検定 |
| 4.13 | まとめ |
| | References |
|
| |
 |
ビジュアル化を使用したデータの理解 訳:太田 博三 |
|
 |
| 5.1 | using と importall の違い |
| 5.2 | Julia の Pyplot |
| 5.2.1 | マルチメディア I/O |
| 5.2.2 | インストール |
| 5.2.3 | 基本的プロット |
| (1) | サインとコサインを用いたプロット |
| 5.3 | unicode プロット |
| 5.3.1 | インストール |
| 5.3.2 | 例 |
| (1) | unicode の散布図の作成 |
| (2) | unicode の線プロットの作成 |
| 5.4 | Vega を用いたビジュアル化 |
| 5.4.1 | インストール |
| 5.4.2 | 例 |
| (1) | 散布図 |
| 5.4.3 | Vega のヒートマップ |
| 5.5 | Gadfly を用いたデータのビジュアル化 |
| 5.5.1 | Gadfly のインストール |
| 5.5.2 | plot 関数を使用した Gadfly によるインタラクティブな操作 |
| (1) | 例 |
| 5.5.3 | Gadfly を用いた DataFrame のプロット |
| 5.5.4 | Gadfly を用いた関数と式のビジュアル化 |
| 5.5.5 | 複数のレイヤを持つ画像の作成 |
| 5.5.6 | 統計量を用いた様々な美的特性を持つプロットの作成 |
|
|
| (1) | step 関数 |
| (2) | Q-Q 関数 |
| (3) | Gadfly の ticks |
| 5.5.7 | ジオメトリを用いた様々な美的特性を持つプロットの作成 |
| (1) | 箱ひげ図 |
| (2) | ジオメトリを用いた密度プロットの作成 |
| (3) | ジオメトリを用いたヒストグラムの作成 |
| (4) | 棒グラフ |
| (5) | Histogram2d:二次元ヒストグラム |
| (6) | 平滑線プロット |
| (7) | サブプロットなグリッド |
| (8) | 水平線および垂直線 |
| (9) | リボンのプロット |
| (10) | バイオリンプロット |
| (11) | ビースウォームプロット |
| 5.5.8 | 要素:スケール |
| (1) | x_countinuous および y_continuous |
| (2) | x_discrete および y_discrete |
| (3) | 連続的カラースケール |
| 5.5.9 | 要素:ガイド |
| 5.5.10 | Gadfly の動作の理解 |
| 5.6 | まとめ |
| | References |
|
| |
 |
教師付き機械学習 訳:大前 奈月 |
|
 |
| 6.1 | 機械学習とは何か? |
| 6.1.1 | 機械学習の使用例 |
| 6.1.2 | 機械学習と倫理 |
| 6.2 | 機械学習:処理工程 |
| 6.2.1 | 様々なタイプの機械学習 |
| 6.2.2 | バイアス-バリアンスのトレードオフとは何か? |
| 6.2.3 | モデルにおける過学習とアンダーフィッティングの影響 |
| 6.3 | 決定木の理解 |
| 6.3.1 | 決定木の構築:分割統治 |
| 6.3.2 | 決定木はどこに用いるべきか? |
| 6.3.3 | 決定木の長所 |
| 6.3.4 | 決定木の短所 |
| 6.3.5 | 決定木学習のアルゴリズム |
| (1) | 決定木アルゴリズムはどのように動作するのか? |
| (2) | 純度の理解とノードの純度測定 |
|
|
| 6.3.6 | 例 |
| 6.4 | ナイーブベイズを用いた教師付き学習 |
| 6.4.1 | ナイーブベイズの長所 |
| 6.4.2 | ナイーブベイズの短所 |
| 6.4.3 | ナイーブベイズ分類器の使用例 |
| 6.4.4 | ベイズ法はどのように動作するのか? |
| (1) | 事後確率 |
| (2) | クラス条件付き確率 |
| (3) | 事前確率 |
| (4) | エビデンス |
| 6.4.5 | bag-of-words モデル |
| (1) | ナイーブベイズのスパムフィルターを用いる利点 |
| (2) | ナイーブベイズフィルターの短所 |
| 6.4.6 | ナイーブベイズの例 |
| 6.5 | まとめ |
| | References |
|
| |
 |
教師なし機械学習 訳:兼松 正人 |
|
 |
| 7.1 | クラスタリングの理解 |
| 7.1.1 | クラスタ作成法 |
| 7.1.2 | クラスタリングの種類 |
| (1) | 階層的クラスタリング |
| (2) | 重複、排他的、ファジィクラスタリング |
| (3) | 部分クラスタリングと完全クラスタリングの違い |
| 7.2 | k-平均法クラスタリング |
| 7.2.1 | k-平均法アルゴリズム |
| (1) | k-平均法のアルゴリズム |
| (2) | データ点の最近傍重心への関連付け |
| (3) | 初期重心の選択法 |
| (4) | k-平均法アルゴリズムの時空間的複雑性 |
| 7.2.2 | k-平均法に関するいくつかの問題点 |
| (1) | k-平均法における空クラスタ |
| (2) | データ集合の外れ値 |
| 7.2.3 | 様々な種類のクラスタ |
|
|
| (1) | k-平均法:長所と短所 |
| 7.2.4 | 二分割 k-平均法アルゴリズム |
| 7.2.5 | 階層的クラスタリングの詳細 |
| 7.2.6 | 凝集型階層的クラスタリング |
| (1) | 近接度の計算法 |
| (2) | 階層的クラスタリングの長所と短所 |
| 7.2.7 | DBSCAN テクニックの理解 |
| (1) | では、密度とは何か? |
| (2) | 中心に基づく密度を用いてデータ点を分類する方法 |
| (3) | DBSCAN アルゴリズム |
| (4) | DBSCAN アルゴリズムの長所と短所 |
| 7.2.8 | クラスタの評価 |
| 7.2.9 | 例 |
| 7.3 | まとめ |
| | References |
|
| |
 |
アンサンブルモデルの作成 訳:石井 一夫 |
|
 |
| 8.1 | アンサンブル学習法とは何か? |
| 8.1.1 | アンサンブル学習法の理解 |
| 8.1.2 | アンサンブル学習器の作成法 |
| (1) | 組み合わせ法 |
| 8.1.3 | 訓練データ集合の部分抽出法 |
| (1) | バギング |
| | <バギングの動作時> |
| (2) | ブースティング |
| | <ブースティング方法> |
| | <ブースティングアルゴリズム> |
| (3) | AdaBoost:標本抽出によるブースティング |
| | <ブースティングの動作内容> |
| | <バイアスとバリアンスの分解> |
| 8.1.4 | 入力特徴量の取り扱い |
|
|
| 8.1.5 | ランダム性の導入 |
| 8.2 | ランダムフォレスト |
| 8.2.1 | ランダムフォレストの特徴量 |
| 8.2.2 | ランダムフォレストの動作 |
| 8.2.3 | out-of-bag(obb)エラーの推定 |
| (1) | ジニ重要度 |
| (2) | 近接度(proximity) |
| 8.3 | Julia での実装 |
| 8.3.1 | 学習と予測 |
| 8.4 | アンサンブル学習が優れている理由 |
| 8.4.1 | アンサンブル学習の応用 |
| 8.5 | まとめ |
| | References |
|
| |
 |
時系列 訳:石井 一夫 |
|
 |
| 9.1 | 予測とは何か? |
| 9.1.1 | 意思決定プロセス |
| (1) | システムのダイナミクス |
| 9.2 | 時系列とは何か? |
| 9.2.1 | 傾向、季節性、周期、残差 |
| (1) | 標準線形回帰との違い |
| (2) | 分析の基本目的 |
| (3) | モデルの種類 |
| (4) | 最初に考慮すべき重要な特徴 |
| (5) | 系統的パターンとランダムノイズ |
| (6) | 時系列パターンの 2 つの一般的側面 |
| 9.2.2 | 傾向分析 |
| (1) | 平滑化 |
| (2) | 関数の当てはめ |
| 9.2.3 | 季節性の分析 |
| (1) | 自己相関 |
| | <コレログラムの試験> |
| (2) | 偏自己相関 |
| (3) | 連続依存性の除去 |
| 9.2.4 | ARIMA モデル |
| (1) | 共通プロセス |
| (2) | ARIMA の方法論 |
| | <同定> |
| | <推定と予測> |
| | < ARIMA モデルの定数> |
| | <同定フェーズ > |
|
|
| | <季節モデル> |
| (3) | パラメータ推定 |
| (4) | モデルの評価 |
| (5) | 中断された時系列 ARIMA |
| 9.2.5 | 指数平滑法 |
| (1) | 単純指数平滑法 |
| (2) | 適合欠如(誤差)の指標 |
| 9.3 | Julia での実装 |
| 9.3.1 | TimeArray の時系列型 |
| 9.3.2 | 時間制約の使用 |
| (1) | when メソッド |
| (2) | from メソッド |
| (3) | to メソッド |
| (4) | findwhen メソッド |
| (5) | find メソッド |
| (6) | 数学、比較、論理演算子 |
| (7) | TimeSeries 型へのメソッド適用 |
| | < lag メソッド> |
| | < lead メソッド> |
| | < percentage メソッド> |
| (8) | TimeSeries 型での統合法 |
| | < merge メソッド> |
| | < collapse メソッド> |
| | < map メソッド> |
| 9.4 | まとめ |
| | References |
|
| |
 |
協調フィルタリングとレコメンデーションシステム 訳:石井 一夫 |
|
 |
| 10.1 | レコメンデーションシステムとは何か? |
| 10.1.1 | ユーティリティ行列 |
| 10.2 | 相関ルールマイニング |
| 10.2.1 | 相関ルールの測定 |
| 10.2.2 | 商品集合の作成法 |
| 10.2.3 | ルールの作成法 |
| 10.3 | 内容ベースフィルタリング |
| 10.3.1 | 内容ベースフィルタリングに含まれる手順 |
| 10.3.2 | 内容ベースフィルタリングの長所 |
|
|
| 10.3.3 | 内容ベースフィルタリングの短所 |
| 10.4 | 協調フィルタリング |
| 10.4.1 | ベースライン予測法 |
| 10.4.2 | ユーザベース協調フィルタリング |
| 10.4.3 | アイテムベース協調フィルタリング |
| (1) | アイテムベース協調フィルタリングのアルゴリズム |
| 10.5 | 映画推薦システムの構築 |
| 10.6 | まとめ |
|
| |
 |
深層学習入門 訳:古徳 純一 |
|
 |
| 11.1 | 線形代数の再考 |
| 11.1.1 | スカラーの要点 |
| 11.1.2 | ベクトルの概要 |
| 11.1.3 | 行列の重要性 |
| 11.1.4 | テンソルとは何か? |
| 11.2 | 確率論と情報理論 |
| 11.2.1 | なぜ確率なのか? |
| 11.3 | 機械学習と深層学習の違い |
| 11.3.1 | 深層学習とは何か? |
| 11.3.2 | ディープフィードフォワードネットワーク |
| (1) | ニューラルネットワーク内の隠れ層の理解 |
| (2) | ニューラルネットワークの動機付け |
| 11.3.3 | 正則化の理解 |
| 11.3.4 | 深層学習モデルの最適化 |
| (1) | 最適化の例 |
|
|
| 11.4 | Julia での実装 |
| 11.4.1 | ネットワークアーキテクチャ |
| 11.4.2 | 層の種類 |
| 11.4.3 | ニューロン(活性化関数) |
| 11.4.4 | 人工ニューラルネットワーク用正則化項の理解 |
| 11.4.5 | ノルム拘束 |
| 11.4.6 | ディープニューラルネットワークでのソルバーの使用 |
| 11.4.7 | コーヒーブレイク |
| 11.4.8 | 訓練済みの Imagenet CNN による画像分類 |
| 11.5 | まとめ |
| | References |
| | 索引 |
|
| |
| |