新刊書


刊行】
 





■編著者紹介:
豊田秀樹(とよだ ひでき)
1961年 東京都に生まれる。
1989年 東京大学大学院・教育学研究科(教育学博士)。
   日本行動計量学会優秀賞(1995年)、
   日本心理学会優秀論文賞(2002年、2005年)受賞。
   イリノイ大学心理学部客員研究員などを経て、
   現 在 早稲田大学文学学術院教授。
   専門は心理統計学、マーケティングサイエンス。
   研究の合間の映画鑑賞が無上の楽しみ。

◎主な著書(東京図書)
共分散構造分析[Amos編]―構造方程式モデリング―』(編著)
共分散構造分析[R編] ―構造方程式モデリング─』(編著)
購買心理を読み解く統計学 ―実例で見る心理・調査データ解析28
データマイニング入門 ―Rで学ぶ最新データ解析─』(編著)
検定力分析入門 ―Rで学ぶ最新データ解析─』(編著)
回帰分析入門 ―Rで学ぶ最新データ解析─』(編著)
因子分析入門 ―Rで学ぶ最新データ解析─』(編著)
紙を使わないアンケート調査入門 ―卒業論文,高校生にも使える─』(編著)
もうひとつの重回帰分析 ―予測変数を直交化する方法─』(編著)

■著者紹介:
馬 景昊(早稲田大学大学院文学研究科)
佐々木研一(早稲田大学大学院文学研究科)
泉荘太朗(早稲田大学大学院文学研究科卒業生)
堀田晃大(早稲田大学大学院文学研究科卒業生)
門田凌典(早稲田大学大学院文学研究科)
浅野懐星(早稲田大学大学院文学研究科)
加藤 剛(早稲田大学文学部)

■内容紹介



本書で取り扱っているデータ・スクリプトダウンロードはこちら <DL02416.zip

◎このデータを他の出版物・Webサイトなどに転載するには著作者の許可が必要です。
また,このデータを用いてソフトウエアから得られた成果についても同様です。

■目次

第1章 人工知能の歴史

1.1 決定木第3章
1.2 アンサンブル学習第4章
1.3 神経細胞のモデル化第5章
1.4 再帰的ニューラルネット第6章
1.5 畳み込みニューラルネット第7章
1.6 自然言語処理第8章
1.7 教師なし学習第9章/第10章とその他の学習
 1.7.1 教師あり学習・強化学習
 1.7.2 教師なし学習・クラスタリング
 1.7.3 教師なし学習・次元削減
 1.7.4 教師なし学習・その他
 1.7.5 転移学習と半教師あり学習
1.8 強化学習・深層強化学習第11章
1.9 生成AI 第12章
 1.9.1 敵対的生成ネットワーク
 1.9.2 言語による画像生成
1.10 個人的歴史観
 1.10.1 80年代後半−90年代前半
 1.10.2 90年代後半−2000年代前半
 1.10.3 2000年代後半以降
 参考文献

第2章 Python を使ったデータ分析
2.1 Google Colaboratory
 2.1.1 Colab へのログイン
 2.1.2 ノートブックの作成
 2.1.3 ファイル名の変更
 2.1.4 ファイルの保存と確認
 2.1.5 プログラムの記述
 2.1.6 データファイルのアップロード
 2.1.7 Colab ノートブックを開く
 2.1.8 GPU の利用方法
 2.1.9 Colab の無料版の制限
2.2 Python の基礎
 2.2.1 基本的なデータ型
 2.2.2 演算
 2.2.3 リスト
 2.2.4 タプル
 2.2.5 タプル、リストのアンパック
 2.2.6 辞書
 2.2.7 制御構造
 2.2.8 オブジェクト指向プログラミング
 2.2.9 ファイルデータの読み込み
 2.2.10 pandas 形式をnumpy 形式への変更方法
2.3 課題

第3章 決定木
3.1 決定木とは
 3.1.1 決定木
 3.1.2 決定木の解釈
 3.1.3 ルール抽出
3.2 分類木 ―予測変数が質的変数の場合―
 3.2.1 分岐基準
 3.2.2 分岐基準の計算例
3.3 分類木 ―予測変数が量的変数の場合―
 3.3.1 お札の真贋の判定
 3.3.2 予測変数が量的変数の場合の分岐基準
3.4 回帰木 ―基準変数が量的変数である場合― 
 3.4.1 生徒の成績の予測
 3.4.2 予測変数が量的変数である場合の分岐基準
3.5 より実用的な決定木を構築するために
 3.5.1 交差検証
 3.5.2 プルーニング
3.6 Python による実装
 3.6.1 準備
 3.6.2 タイタニックデータの分析
 3.6.3 偽札データの分析
 3.6.4 生徒の成績データの分析
 3.6.5 偽札データのプルーニング
3.7 課題

第4章 アンサンブル学習
4.1 アンサンブル学習
 4.1.1 アンサンブル学習の概要
 4.1.2 弱学習器の多様さと正確さ
4.2 アンサンブル学習の代表的な手法
 4.2.1 バギングの概要
 4.2.2 バギングの手順
 4.2.3 ランダムフォレスト
 4.2.4 ブースティングの概要
 4.2.5 ブースティングの手順
 4.2.6 具体例
4.3 モデルの評価方法
 4.3.1 評価指標
4.4 Python による実装
 4.4.1 食用キノコか毒キノコか決定する要因の探索
 4.4.2 準備
 4.4.3 決定木による分析結果
 4.4.4 ランダムフォレストによる分析結果
 4.4.5 アダブーストによる分析結果
 4.4.6 分析結果の評価
4.5 課題

第5章 ニューラルネットの基礎
5.1 モデルの数式化
 5.1.1 各ユニットの働き
 5.1.2 活性化関数
 5.1.3 モデルは多種多様
5.2 学習とは何か
 5.2.1 最小2乗法
 5.2.2 勾配降下法
5.3 誤差逆伝播法
5.4 学習の流れ
 5.4.1 誤差関数の補足
 5.4.2 勾配降下法に関する補足
5.5 Python による実装
5.6 課題
付録A:微分
 A.1 合成関数の微分
 A.2 シグモイド関数の微分
 A.3 偏微分
 A.4 合成関数の偏微分

第6章 再帰型ニューラルネットワーク
6.1 時系列データと再帰型ニューラルネットワーク
 6.1.1 時系列データ
 6.1.2 再帰型ニューラルネットワークの概要
 6.1.3 RNN の展開図
6.2 RNN の各層
 6.2.1 入力層から隠れ層へ
 6.2.2 隠れ層から状態層へ
 6.2.3 状態層から隠れ層へ
6.3 RNN の構造
 6.3.1 第1ブロック
 6.3.2 第2ブロック
 6.3.3 出力層
6.4 RNN の数値例
 6.4.1 ReLU
 6.4.2 数値例
 6.4.3 1 字目が共通で2 字目が異なる「可視化」の場合
 6.4.4 1 字目から異なる「歯科医」の場合
6.5 RNN の発展モデル
6.6 Python による実装と応用例
 6.6.1 PyTorch による文字入力課題
 6.6.2 magenta による音楽生成
6.7 課題

第7章 畳み込みニューラルネットワーク
7.1 計算機視覚
 7.1.1 コンピュータが見た画像
 7.1.2 多層パーセプトロンの場合
7.2 畳み込みニューラルネットワークの構成
 7.2.1 入力層
 7.2.2 畳み込み層
 7.2.3 畳み込みの意味とシフト不変性
 7.2.4 カーネルサイズとResNet
7.3 プーリング層
7.4 複数カーネルへの拡張
7.5 出力層と誤差関数
7.6 Python による実装
7.7 課題

第8章 GPT/Transformer 
8.1 言語モデル
 8.1.1 確率表現
 8.1.2 テキスト生成
 8.1.3 サブワード分割
 8.1.4 分散表現
 8.1.5 ニューラル言語モデル
8.2 系列変換モデル
 8.2.1 エンコーダ
 8.2.2 デコーダ
 8.2.3 注意機構
 8.2.4 単語の生成処理
8.3 Transformer の注意機構
 8.3.1 QKV 注意機構
 8.3.2 多頭注意
8.4 Transformer の基本概念
 8.4.1 Transformer の構成要素
 8.4.2 位置符号
 8.4.3 残差結合
 8.4.4 層正規化
8.5 GPT 
 8.5.1 GPT の構造
 8.5.2 GPT の事前学習
 8.5.3 ファインチューニングからプロンプトへ
 8.5.4 汎用型対話AI への道:RLHF
8.6 Python によるGPT の実装
8.7 課題
付録B : 行列の計算

第9章 教師なし学習1
9.1 k-means 法
 9.1.1 k-means 法のアルゴリズム
 9.1.2 k-means 法の定式化
 9.1.3 k-means 法の注意点
9.2 オートエンコーダ
 9.2.1 様々なオートエンコーダ
9.3 アソシエーション分析
 9.3.1 アソシエーション分析における指標
 9.3.2 アプリオリ・アルゴリズム
9.4 Python による実装
 9.4.1 k-means 法による顧客セグメンテーション
 9.4.2 オートエンコーダによる顧客データでの次元削減
 9.4.3 キノコデータでのアソシエーション分析
9.5 練習問題

第10章 教師なし学習2 
10.1 階層的クラスター分析
 10.1.1 階層的クラスター分析の手順
 10.1.2 ウォード法
 10.1.3 ウォード法を用いた分析例 ―町のイメージ― 
10.2 潜在意味解析(LSA) 
 10.2.1 意味の定式化
 10.2.2 特異値分解
 10.2.3 類似性の検討
 10.2.4 検索質問文
10.3 潜在ディリクレ配分法(LDA)
 10.3.1 潜在ディリクレ配分法(LDA)とは
 10.3.2 Bag of Words(BoW)
 10.3.3 LDA の文書生成過程
 10.3.4 LDA のグラフィカルモデル
 10.3.5 LDA の応用と拡張モデル
10.4 Python での実装
 10.4.1 Python での階層的クラスター分析の実装
 10.4.2 Python での潜在意味解析の実装
 10.4.3 Python でのLDA の実装
10.5 課題
 10.5.1 階層的クラスター分析
 10.5.2 潜在意味解析
 10.5.3 潜在ディリクレ配分法(LDA)

第11章 強化学習・深層強化学習
11.1 強化学習
 11.1.1 状況設定
 11.1.2 最適方策とQ 関数
11.2 ベルマン方程式
 11.2.1 ベルマン最適方程式
11.3 Q 学習における評価と改善
 11.3.1 方策評価
 11.3.2 方策改善
11.4 迷路課題を解く
11.5 Flappy Bird から見るQ 学習の限界
 11.5.1 ゲーム画面そのものを状態とする意義
11.6 深層強化学習
11.7 Python による深層強化学習の実装
11.8 課題

第12章 画像生成AI 
12.1 GAN の基本
 12.1.1 GAN の構成
 12.1.2 GAN の誤差関数
 12.1.3 GAN の学習
 12.1.4 学習における工夫
12.2 CGAN 
 12.2.1 CGAN の概要
 12.2.2 CGAN の生成器と識別器
12.3 DCGAN 
 12.3.1 画像生成の過程
 12.3.2 学習の流れ
12.4 ESRGAN 
 12.4.1 超解像度画像とは
 12.4.2 ESRGAN の概要
12.5 pix2pix
 12.5.1 pix2pix の概要
 12.5.2 生成器
12.6 cycleGAN 
 12.6.1 学習と誤差関数
12.7 StackGAN 
 12.7.1 StackGAN の概要
12.8 Stable Diffusion 
 12.8.1 学習過程1-1 − 変分オートエンコーダ
 12.8.2 学習過程1-2 − クリップ
 12.8.3 学習過程2-1 − 拡散過程・ノイズ除去過程
 12.8.4 学習過程2-2 − ノイズ除去U-Net −θ
 12.8.5 学習過程2-3 − QKV クロス注意機構
 12.8.6 重み変更のための目的関数
 12.8.7 学習過程のまとめ
 12.8.8 text-to-image 生成
12.9 Python による実装
12.10 課題
		


購入案内統計学(Excel、SPSS、JMP、医療・看護) 新刊書籍


東京図書株式会社
© TokyoTosho Co.,Ltd.