Rではじめるソーシャルメディア分析―Twitterからニュースサイトまで― 

書籍情報
ISBN978-4-320-12452-3
判型B5 
ページ数328ページ
発売予定2019年12月11日
本体価格4,700円
Rではじめるソーシャルメディア分析 書影
Rではじめるソーシャルメディア分析

新刊

本書は,Rを用いたソーシャルメディア分析の入門書である。ここでいうソーシャルメディアとは,TwitterやFacebookに代表されるSNS(ソーシャルネットワークサービス)とほぼ同義である。このようなサービスの多くはWebAPIの形で外部にデータ提供をしており,本書はこれを利用したさまざまな分析例を紹介している。本書ではまず第1章において,Rの導入とソーシャルメディア分析の基本的な流れを紹介する。Rの導入についても過不足なく説明され,初心者でも勘どころを押さえながら読み進めることができる。第2章以降は,さまざまなソーシャルメディアにおける具体的な分析例を紹介していく。読者は本書を通じて,ソーシャルメディア分析を実施する際に,どのようなデータソースがあり,そこでどのような分析が可能か,という分析のイロハを身につけることができる。データサイエンティストとして分析力を身につけたいが,手もとにサンプルデータ(例えば有名なアヤメのデータ(iris))しかなく,実データ(いわゆるリアルワールドデータ)は持っていない,といった方に最適な1冊と言えるだろう。

原著:Learning Social Media Analytics with R, 2017.

目次

第1章 ソーシャルメディア分析とRの基礎
1.1 ソーシャルメディア概論
  1.1.1 メリット
  1.1.2 デメリット
1.2 ソーシャルメディア分析
  1.2.1 ソーシャルメディア分析ワークフロー
  1.2.2 分析の目的
  1.2.3 分析における課題
1.3 Rを始めよう
  1.3.1 環境設定
  1.3.2 データ型
  1.3.3 データ構造
  1.3.4 関数
  1.3.5 制御構文
  1.3.6 applyファミリー
  1.3.7 データの可視化
  1.3.8 ヘルプの表示とパッケージ管理
1.4 データ分析
  1.4.1 データ分析プロセス
1.5 機械学習
  1.5.1 機械学習の手法
  1.5.2 教師あり学習
  1.5.3 教師なし学習
1.6 テキスト分析
1.7 まとめ

第2章 Twitter―140文字の世界で何が起きているのか
2.1 Twitterについて知ろう
  2.1.1 TwitterAPI
  2.1.2 アプリの登録
  2.1.3 Rを使ったTwitterへの接続
  2.1.4 ツイートの抽出
2.2 分析ワークフローの復習
2.3 トレンド分析
2.4 感情分析
  2.4.1 感情分析の基本概念
  2.4.2 テキストの特徴量
  2.4.3 Rによる感情分析
2.5 フォロワーグラフ分析
2.6 Twitterデータに関する課題
2.7 まとめ

第3章 Facebookにおけるソーシャルネットワークとブランドエンゲージメントの分析
3.1 Facebookデータにアクセスする
  3.1.1 Graph APIを理解する
  3.1.2 Rfacebookパッケージ
  3.1.3 Netvizzについて
  3.1.4 データアクセスの際に注意すべきポイント
3.2 個人間のソーシャルネットワーク分析
  3.2.1 基本的な記述統計
  3.2.2 互いに興味のある事柄について分析する
  3.2.3 友達ネットワークグラフを構築する
  3.2.4 友達ネットワークグラフを可視化する
  3.2.5 ノードの性質を分析する
  3.2.6 ネットワーク内のコミュニティを分析する
3.3 イギリスのサッカークラブのソーシャルネットワーク分析
  3.3.1 プレミアリーグのFacebookページにおける記述統計
  3.3.2 プレミアリーグネットワークを可視化する
  3.3.3 ネットワークの性質についての分析
  3.3.4 ノードの特性について調べる
  3.3.5 ネットワークのコミュニティを分析する
3.4 イギリスのサッカークラブのFacebookページにおけるブランドエンゲージメントの分析
  3.4.1 データを取得する
  3.4.2 データを整形する
  3.4.3 各ページの投稿数を可視化する.
  3.4.4 投稿種類別の投稿数を可視化する
  3.4.5 投稿種類別の平均いいね数を可視化する
  3.4.6 投稿種類別の平均シェア数を可視化する
  3.4.7 ページエンゲージメントの推移を可視化する
  3.4.8 ユーザーエンゲージメントの推移を可視化する
  3.4.9 いいねを多く集めた投稿を把握する
  3.4.10 シェア数が最多の投稿を把握する
  3.4.11 注目の投稿における影響力のあるユーザーを把握する
3.5 まとめ

第4章 Foursquareのデータ分析
4.1 Foursquareのアプリ概要とデータ
  4.1.1 FoursquareのAPI―データを得る
  4.1.2 アプリを登録する
  4.1.3 データにアクセスする
  4.1.4 JSONをRで扱う
  4.1.5 分析プロセス(再訪)
4.2 場所カテゴリのトレンドを分析する
  4.2.1 データの取得
  4.2.2 都市における場所情報を取得する
  4.2.3 都市データを分析する
4.3 レコメンドエンジンを作る
  4.3.1 レコメンドエンジンとは
  4.3.2 レコメンドの枠組みを定める
  4.3.3 レストランカテゴリのレコメンドエンジンを構築する
4.4 感情分析を用いたランキング
  4.4.1 チップデータを抽出する
  4.4.2 得られたデータを検討する
  4.4.3 チップデータを分析する
  4.4.4 最終的な美術館ランキング
4.5 場所のグラフ―人々は次にどこへ行くのか
4.6 Foursquareデータ分析における課題
4.7 まとめ

第5章 ソフトウェアのコラボレーション傾向の分析(1)―GitHubによるソーシャルコーディング
5.1 環境のセットアップ
5.2 GitHubを理解する
5.3 GitHubのデータへのアクセス
  5.3.1 rgi thubパッケージを使用してデータにアクセスする
  5.3.2 GitHubへアプリケーションを登録する
  5.3.3 GitHubのAPIを用いてデータにアクセスする
5.4 リポジトリ活動の分析
  5.4.1 週次のコミット頻度の分析
  5.4.2 曜日ごとのコミット頻度分布の分析
  5.4.3 日次のコミット頻度の分析
  5.4.4 週次のコミット頻度の比較分析
  5.4.5 週次のコード変更履歴の分析
5.5 トレンドリポジトリの取得
5.6 トレンドリポジトリの傾向の分析
  5.6.1 リポジトリ作成に関する経時的な分析
  5.6.2 リポジトリ更新に関する経時的な分析
  5.6.3 リポジトリの指標の分析
5.7 プログラミング言語とリポジトリ所有者の傾向についての分析
  5.7.1 人気言語の可視化
  5.7.2 人気言語の経時的な可視化
  5.7.3 最もオープンイシューを抱えている言語の分析
  5.7.4 最もオープンイシューを抱えている言語の経時的な分析
  5.7.5 最も有用なリポジトリを持つ言語についての分析
  5.7.6 最も人気度が高い言語の分析
  5.7.7 言語の相関に関する分析
  5.7.8 リポジトリ所有者の傾向の分析
  5.7.9 貢献度の高い所有者についての分析
  5.7.10 所有者の活動性指標の分析
5.8 まとめ

第6章 ソフトウェアのコラボレーション傾向の分析(2)―StackExchangeにおける回答傾向
6.1 StackExchangeを理解する
  6.1.1 データアクセス
  6.1.2 StackExchangeのダンプデータ
  6.1.3 ダンプデータを利用する
6.2 投稿データの探索的分析
  6.2.1 基本的な記述統計
  6.2.2 プログラミング言語別の質問投稿傾向の確認
  6.2.3 質問をしてから回答が得られるまでの平均時間の確認
  6.2.4 フリーテキストのフィールドで可能な分析
  6.2.5 投稿データに含まれる属性間の相関の確認
6.3 ユーザーのデモグラフィックの確認
  6.3.1 平均年齢の確認
  6.3.2 居住地域別のプログラミング言語の分布の確認
  6.3.3 居住地域別の年齢分布の確認
6.4 StackExchangeデータを利用する上での課題
6.5 まとめ

第7章 Flickrのデータ分析
7.1 画像化された世界
7.2 Flickrのデータにアクセスする
  7.2.1 Flickrにアプリを登録する
  7.2.2 Rとの接続
  7.2.3 Flickrデータを使ってみる
7.3 Flickrデータを理解する
  7.3.1 EXIFについて理解する
7.4 「面白い写真」を理解する―類似度
  7.4.1 適切なkの値を探す
7.5 あなたの写真は「面白い写真」に選ばれるか?
  7.5.1 データを準備する
  7.5.2 分類器を構築する
7.6 Flickrデータの分析における課題
7.7 まとめ

第8章 ニュースサイトの分析
8.1 ニュースデータ―ニュースは遍在する
  8.1.1 ニュースデータにアクセスする
  8.1.2 データアクセスのためのアプリを登録する
  8.1.3 API以外の手段も用いてデータ抽出する
  8.1.4 APIから得られる複雑怪奇なレスポンス
  8.1.5 APIで取得したリンク情報を用いたHTMLスクレイピング
8.2 感情分析で傾向をつかむ
  8.2.1 データを取得する
  8.2.2 基本的な記述統計
  8.2.3 感情を数値化して傾向をつかむ
  8.2.4 快不快に基づく感情スコアの傾向
8.3 トピックモデリング
  8.3.1 データを取得する
  8.3.2 基本的な記述統計
  8.3.3 期間ごとのトピックモデリング
8.4 ニュース記事の要約
  8.4.1 文書要約
  8.4.2 LexRankを理解する
  8.4.3 lexRankrパッケージを用いて記事を要約する
8.5 ニュース記事の分析における課題
8.6 まとめ