はじめに
- 修正履歴
- 2020/06/28: 公開
- 2020/07/01: データの結合を追加
- 2020/07/03: factor型の扱い方を追加
- 誤字・脱字は随時修正しております。
- 以下の内容は現在執筆中の内容の一部となります。
- Song Jaehyun・矢内勇生『私たちのR: ベストプラクティスの探求』(E-book)
- 前半は「データハンドリング [基礎編: 抽出]」章、後半は「データハンドリング [基礎編: 拡張]」章に基づいており、factor型の扱いについては「データハンドリング [基礎編: factor型]」章を一部抜粋しております。
- したがって、いきなりオブジェクト、関数、引数といった馴染みのない概念が出てきます。これらの概念に馴染みのない方は、予め「Rプログラミング入門の入門」をご一読ください。
- Song Jaehyun・矢内勇生『私たちのR: ベストプラクティスの探求』(E-book)
- 2020年6月に公開されましたdplyr 1.0.0に対応しております。
- 2016年5月に作成しました旧版はここから閲覧できます。
- 実習データはここからダウンロード可能です。
パッケージと実習用データの読み込み
パッケージはdplyr
でも、tidyverse
でもどれでも構いません。ここではデータをtibble型として読み込むため、tidyverse
を読み込んでおきます。
library(tidyverse)
## ─ Attaching packages ──────────────────────────── tidyverse 1.3.0 ─
## ✓ ggplot2 3.3.2 ✓ purrr 0.3.4
## ✓ tibble 3.0.3 ✓ dplyr 1.0.2
## ✓ tidyr 1.1.1 ✓ stringr 1.4.0
## ✓ readr 1.3.1 ✓ forcats 0.5.0
## ─ Conflicts ────────────────────────────── tidyverse_conflicts() ─
## x dplyr::filter() masks stats::filter()
## x dplyr::lag() masks stats::lag()
それでは今回の実習用データを読み込みましょう。Ramen.csvには「ぐるなび」から取得したラーメン屋6292店舗の情報が入っています。具体的には東京、神奈川、千葉、埼玉、大阪、京都、兵庫、奈良、和歌山それぞれ都府県にあるラーメン屋の中から最大1000店舗の情報を抽出したものです。東京都は、ぐるなびに登録したラーメン屋が3000店舗以上ですが、1000店舗の基準はぐるなびの「おすすめ」の順で上位1000店舗となります。また、店側またはぐるなびが登録したカテゴリを基準に抽出したため、実際はラーメン屋ではないにもかかわらずラーメン屋としてデータ内に含まれている可能性があります。
まず、このデータを読み込み、df
という名付けます。R内蔵関数であるread.csv()
を使ってデータを読み込んでも以下の内容を実習するにあたって全く問題はございません。read.csv()
から読み込まれたデータのクラスはデータフレーム、read_csv()
の場合はtibbleです。tibbleはデータフレームの拡張版であり、データフレームで可能な操作は全てtibbleにおいても可能です。ここではtibbleを使いますが、こちらの方が、結果が読みやすく出力されるからです。
# ファイルのパスは適宜修正してください
df <- read_csv("Data/Ramen.csv")
## Parsed with column specification:
## cols(
## ID = col_character(),
## Name = col_character(),
## Pref = col_character(),
## Zipcode = col_double(),
## Latitude = col_double(),
## Longitude = col_double(),
## Line = col_character(),
## Station = col_character(),
## Walk = col_double(),
## Bus = col_double(),
## Car = col_double(),
## Budget = col_double(),
## ScoreN = col_double(),
## Score = col_double()
## )
本サンプルデータはUTF-8で保存されており、文字化けが生じる場合、以下のように対処してください。
# readrパッケージのread_csv()を使う場合
df <- read_csv("Data/Ramen.csv", locale = locale(encoding = "utf8"))
# R内臓のread.csv()を使う場合
df <- read_csv("Data/Ramen.csv", fileEncoding = "utf8")
データの中身を確認してみましょう。
df
## # A tibble: 6,292 x 14
## ID Name Pref Zipcode Latitude Longitude Line Station Walk Bus Car
## <chr> <chr> <chr> <dbl> <dbl> <dbl> <chr> <chr> <dbl> <dbl> <dbl>
## 1 e539… 居酒屋 … 東京都… 1040031 35.7 140. 地下鉄有… 銀座一丁目駅… 3 NA NA
## 2 gfeb… 本格上海… 東京都… 1100005 35.7 140. 地下鉄日… 仲御徒町駅… 1 NA NA
## 3 ggt5… 食べ飲み… 東京都… 1250041 35.8 140. JR常磐… 金町駅 2 NA NA
## 4 g181… 博多餃子… 東京都… 1920904 35.7 139. JR 八王子駅… 1 NA NA
## 5 ggww… まさ屋 … 東京都… 1500042 35.7 140. 地下鉄半… 渋谷駅 7 NA NA
## 6 gdzk… 完全個室… 東京都… 1000013 35.7 140. 地下鉄銀… 虎ノ門駅… 3 NA NA
## 7 ga2g… 鶏そば … 東京都… 1760006 35.7 140. 西武池袋… 江古田駅… 2 NA NA
## 8 gg9m… 宴会個室… 東京都… 1010021 35.7 140. JR 秋葉原駅… 4 NA NA
## 9 gdvk… 中国料理… 東京都… 1000006 35.7 140. JR 有楽町駅… 1 NA NA
## 10 gggb… 中国料理… 東京都… 1140002 35.8 140. 地下鉄南… 王子駅 2 NA NA
## # … with 6,282 more rows, and 3 more variables: Budget <dbl>, ScoreN <dbl>,
## # Score <dbl>
1行目の# A tibble: 6,292 x 14
から、ケース数 (店舗数)は6292、変数は14個あることが分かります。各変数の詳細は以下の通りです。
変数名 | 説明 |
---|---|
ID
|
店舗ID |
Name
|
店舗名 |
Pref
|
店舗の所在地 (都府県) |
Zipcode
|
店舗の郵便番号 |
Latitude
|
緯度 |
Longitude
|
経度 |
Line
|
最寄りの駅の路線 |
Station
|
最寄りの駅 |
Walk
|
最寄りの駅からの距離 (徒歩; 分) |
Bus
|
最寄りの駅からの距離 (バス; 分) |
Car
|
最寄りの駅からの距離 (車; 分) |
Budget
|
平均予算 (円) |
ScoreN
|
口コミの数 |
Score
|
口コミ評価の平均値 |
それではここからはdf
を用いたdplyr
の様々な機能を紹介していきます。
パイプ演算子 (%>%
)
dplyr
パッケージを利用する前にパイプ演算子について説明します。パイプ演算子はdplyr
に含まれている演算子ではなく、magrittr
という別のパッケージから提供される演算子ですが、tidyverse
パッケージを読み込むと自動的に読み込まれます。パイプ演算子はx %>% y()
のような書き方となりますが、これは「x
をy()
の第一引数として渡す」ことを意味します。x
の部分はベクトルやデータフレームのようなオブジェクトでも、関数でも構いません。なぜなら、関数から得られた結果もまたベクトルやデータフレームといったものになるからです。つまり、x() %>% y()
という使い方も可能です。そして、パイプは無限に繋ぐこともできます。「データdf
を関数x()
で処理をし、その結果をまた関数y()
で処理する」ことは、パイプを使うとdf %>% x() %>% y()
のような書き方となります。
たとえば、「paste(3, "+", 5, "=", 8)
を実行し、その結果をrep()
関数を使って3回複製し、それをprint()
を使って出力する」コードを考えてみましょう。方法としては2つ考えられます。まずは、それぞれの処理を別途のオブジェクトに格納する方法です。そして二つ目は関数の中に関数を使う方法です。
# 方法1: 一関数一オブジェクト
Result1 <- paste(3, "+", 5, "=", 8)
Result2 <- rep(Result1, 3)
print(Result2)
## [1] "3 + 5 = 8" "3 + 5 = 8" "3 + 5 = 8"
# 方法2: 関数の中に関数の中に関数
print(rep(paste(3, "+", 5, "=", 8), 3))
## [1] "3 + 5 = 8" "3 + 5 = 8" "3 + 5 = 8"
どれも結果は同じです。コードを書く手間を考えれば、後者の方が楽かも知れませんが、可読性があまりよくありません。一方、前者は可読性は良いものの、コードも長くなり、オブジェクトを2つも作ってしまうのでメモリの無駄遣いになります。
コードの可読性と書く手間、両方を満足する書き方がパイプ演算子%>%
です。まずは、例から見ましょう。
# %>%を使う
paste(3, "+", 5, "=", 8) %>% rep(3) %>% print()
## [1] "3 + 5 = 8" "3 + 5 = 8" "3 + 5 = 8"
まず、結果は先ほどと同じです。それではコードの説明をしましょう。まずは、paste(3, "+", 5, "=", 8)
を実行します。そしてその結果をそのままrep()
関数の第一引数として渡されます。つまり、rep(paste(3, "+", 5, "=", 8), 3)
になるわけです。ここではrep(3)
と書きましたが、第一引数が渡されたため、3
は第二引数扱いになります (パイプ演算子前のオブジェクトを第二、三引数として渡す方法は適宜説明します。)。そして、これをまたprint()
関数に渡します。結果としてはprint(rep(paste(3, "+", 5, "=", 8), 3))
となります。
関数を重ねると読む順番は「カッコの内側から外側へ」になりますが、パイプ演算子を使うと「左 (上)から右 (下)へ」といったより自然な読み方が可能になります。また、以下のコードのように、パイプ演算子後に改行を行うことでより読みやすいコードになります。これからはパイプ演算子の後は必ず改行をします。
# 改行 (+字下げ)したらもっと読みやすくなる
paste(3, "+", 5, "=", 8) %>%
rep(3) %>%
print()
パイプ演算子を使わない方法は図1のようにイメージできます。一回の処理ごとに結果を保存し、それをまた次の処理時においてデータとして使うイメージです。

Figure 1: パイプ演算子を使わない場合
一方、図2はパイプ演算子を使う場合のプロセスです。処理後の結果を保存せず、すぐに次のプロセスに渡すことで、メモリ (図だとボウル)や時間、コードの無駄を減らすことができます。むろん、図1の結果1を使って色々試してみたい場合は、一旦結果1までは格納し、適宜引き出して使った方が効率的でしょう。パイプ演算子はたしかに便利で、「今どき」のRの書き方を象徴するようなものですが、一つの結果を出すまであまりにも多くのパイプ演算子を使うことはあ望ましくありません。

Figure 2: パイプ演算子を使う場合
データハンドリングもこれど同様に、様々な作業を順に沿って行う必要があります。例えば、「(1) 列を選択して、(2) 欠損値を含む列を除去して、 (3) ある変数の値を100倍にして、(4) ある変数の値がが小さい行から大きい順へ並び替える」といった手順です。これらの作業はパイプ演算子を使えば、スムーズに行うことが可能です。
列の抽出
特定の列を抽出する
まずは、データフレーム (または、tibble)から特定の列のみを残す、除去する方法について紹介します。たとえば、df
からID
、Name
、Pref
、Score
のみを残すとします。dplyr
を使わない方法とdplyr
のselect()
関数を使った方法を紹介します。
# dplyrを使わない方法
df[, c("ID", "Name", "Pref", "Score")]
## # A tibble: 6,292 x 4
## ID Name Pref Score
## <chr> <chr> <chr> <dbl>
## 1 e539604 居酒屋 龍記 京橋店 東京都 NA
## 2 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 4.5
## 3 ggt5900 食べ飲み放題×中華ビストロ NOZOMI(のぞみ) 東京都 NA
## 4 g181340 博多餃子軒 八王子店 タピオカ店 Bull Pulu(ブルプル)併設 東京都 NA
## 5 ggww100 まさ屋 渋谷店 東京都 NA
## 6 gdzk500 完全個室 上海レストラン 檸檬 霞ヶ関ビル内店 東京都 NA
## 7 ga2g202 鶏そば きらり 東京都 NA
## 8 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 東京都 3.33
## 9 gdvk200 中国料理 宝龍 東京都 2.5
## 10 gggb200 中国料理 天安門 東京都 NA
## # … with 6,282 more rows
# dplyr::select()を使う方法
# select(df, ID, Name, Pref, Score)でもOK
df %>%
select(ID, Name, Pref, Score)
## # A tibble: 6,292 x 4
## ID Name Pref Score
## <chr> <chr> <chr> <dbl>
## 1 e539604 居酒屋 龍記 京橋店 東京都 NA
## 2 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 4.5
## 3 ggt5900 食べ飲み放題×中華ビストロ NOZOMI(のぞみ) 東京都 NA
## 4 g181340 博多餃子軒 八王子店 タピオカ店 Bull Pulu(ブルプル)併設 東京都 NA
## 5 ggww100 まさ屋 渋谷店 東京都 NA
## 6 gdzk500 完全個室 上海レストラン 檸檬 霞ヶ関ビル内店 東京都 NA
## 7 ga2g202 鶏そば きらり 東京都 NA
## 8 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 東京都 3.33
## 9 gdvk200 中国料理 宝龍 東京都 2.5
## 10 gggb200 中国料理 天安門 東京都 NA
## # … with 6,282 more rows
どれも結果は同じですが、select()
関数を使った方がより読みやすいコードになっているでしょう。むろん、select()
関数を使わない方がスッキリする方も知るかも知れません。実際、自分でパッケージなどを作成する際はselect()
を使わない場合が多いです。ただし、一般的な分析の流れではselect()
の方がコードも意味も明確となり、パイプ演算子でつなぐのも容易です。
select()
関数の使い方は非常に簡単です。第一引数はデータフレーム (または、tibble)ですが、パイプ演算子を使う場合は省略可能です。第二引数以降の引数はデータフレーム/tibble内の変数名です。つまり、ここには残す変数名のみを書くだけで十分です。
また、select()
関数を使って列の順番を変えることもできます。たとえば、ID
、Pref
、Name
、Score
の順で列を残すなら、この順番で引数を書くだけです。
df %>%
select(ID, Pref, Name)
## # A tibble: 6,292 x 3
## ID Pref Name
## <chr> <chr> <chr>
## 1 e539604 東京都 居酒屋 龍記 京橋店
## 2 gfeb600 東京都 本格上海料理 新錦江 上野御徒町本店
## 3 ggt5900 東京都 食べ飲み放題×中華ビストロ NOZOMI(のぞみ)
## 4 g181340 東京都 博多餃子軒 八王子店 タピオカ店 Bull Pulu(ブルプル)併設
## 5 ggww100 東京都 まさ屋 渋谷店
## 6 gdzk500 東京都 完全個室 上海レストラン 檸檬 霞ヶ関ビル内店
## 7 ga2g202 東京都 鶏そば きらり
## 8 gg9m100 東京都 宴会個室×餃子酒場 北京飯店 秋葉原本店
## 9 gdvk200 東京都 中国料理 宝龍
## 10 gggb200 東京都 中国料理 天安門
## # … with 6,282 more rows
特定の列を抽出し、列名を変更する
また、特定の列を残す際、変数名を変更することも可能です。今回もID
、Name
、Pref
、Score
のみを残しますが、Pref
列はPrefecture
に変えてみましょう。
df %>%
select(ID, Name, Prefecture = Pref, Score)
## # A tibble: 6,292 x 4
## ID Name Prefecture Score
## <chr> <chr> <chr> <dbl>
## 1 e539604 居酒屋 龍記 京橋店 東京都 NA
## 2 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 4.5
## 3 ggt5900 食べ飲み放題×中華ビストロ NOZOMI(のぞみ) 東京都 NA
## 4 g181340 博多餃子軒 八王子店 タピオカ店 Bull Pulu(ブルプル)併設… 東京都 NA
## 5 ggww100 まさ屋 渋谷店 東京都 NA
## 6 gdzk500 完全個室 上海レストラン 檸檬 霞ヶ関ビル内店 東京都 NA
## 7 ga2g202 鶏そば きらり 東京都 NA
## 8 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 東京都 3.33
## 9 gdvk200 中国料理 宝龍 東京都 2.5
## 10 gggb200 中国料理 天安門 東京都 NA
## # … with 6,282 more rows
抽出する際、変数を新しい変数名 = 既存の変数名
にするだけで、変数名が簡単に変更できました。もし、特定の列は抽出しないものの、変数名を変えるにはどうすれば良いでしょうか。ここではdf
のPref
をPrefecture
に、Walk
をDistance
に変更してみます。dplyr
を使わない場合とdplyr
のrename()
関数を使う場合を両方紹介します。
まずは、name()
関数についてですが、これはデータフレーム (または、tibble)の変数名をベクトルとして出力する関数です。
names(df)
## [1] "ID" "Name" "Pref" "Zipcode" "Latitude" "Longitude"
## [7] "Line" "Station" "Walk" "Bus" "Car" "Budget"
## [13] "ScoreN" "Score"
察しの良い読者は気づいたかも知れませんが、names(データフレーム/tibble名)
の結果はベクトルであり、上書きも可能です。つまり、names(df)
の3番目と9番目の要素を"Prefecture"
と"Distance"
に上書きすることができるということです。
# dplyrを使わずに列名を変更する方法
names(df)[c(3, 9)] <- c("Prefecture", "Distance")
# dfの中身を出力
df
## # A tibble: 6,292 x 14
## ID Name Prefecture Zipcode Latitude Longitude Line Station Distance
## <chr> <chr> <chr> <dbl> <dbl> <dbl> <chr> <chr> <dbl>
## 1 e539… 居酒屋 … 東京都 1040031 35.7 140. 地下鉄有… 銀座一丁目駅… 3
## 2 gfeb… 本格上海… 東京都 1100005 35.7 140. 地下鉄日… 仲御徒町駅… 1
## 3 ggt5… 食べ飲み… 東京都 1250041 35.8 140. JR常磐… 金町駅 2
## 4 g181… 博多餃子… 東京都 1920904 35.7 139. JR 八王子駅… 1
## 5 ggww… まさ屋 … 東京都 1500042 35.7 140. 地下鉄半… 渋谷駅 7
## 6 gdzk… 完全個室… 東京都 1000013 35.7 140. 地下鉄銀… 虎ノ門駅… 3
## 7 ga2g… 鶏そば … 東京都 1760006 35.7 140. 西武池袋… 江古田駅… 2
## 8 gg9m… 宴会個室… 東京都 1010021 35.7 140. JR 秋葉原駅… 4
## 9 gdvk… 中国料理… 東京都 1000006 35.7 140. JR 有楽町駅… 1
## 10 gggb… 中国料理… 東京都 1140002 35.8 140. 地下鉄南… 王子駅 2
## # … with 6,282 more rows, and 5 more variables: Bus <dbl>, Car <dbl>,
## # Budget <dbl>, ScoreN <dbl>, Score <dbl>
簡単に変数名の変更ができました。続いて、dplyr
のrename()
関数を使った方法です。今回は、Prefecture
をPref
に、Distance
をWalk
に戻して見ましょう。そして、出力するだけにとどまらず、df
に上書きしましょう。
# dfのPrefectureをPrefに、DistanceをWalkに変更し、上書きする
df <- df %>%
rename(Pref = Prefecture, Walk = Distance)
これで終わりです。実はselect()
関数と使い方がほぼ同じです。ただし、残す変数名を指定する必要がなく、名前を変更する変数名と新しい変数名を入れるだけです。変数が少ないデータならselect()
でもあまり不便は感じないかも知れませんが、変数が多くなるとrename()
関数は非常に便利です。
特定の列を除外する
逆に、一部の変数をデータフレーム (または、tibble)から除去したい場合もあるでしょう。たとえば、緯度 (Latitude
)と経度 (Longitude
)はラーメン屋の情報としては不要かもしれません。この2つの変数を除外するためにはどうすれば良いでしょうか。まず考えられるのは、この2つの変数を除いた変数を指定・抽出する方法です。
df %>%
select(ID, Name, Pref, Zipcode,
Line, Station, Walk, Bus, Car, Budget, ScoreN, Score)
## # A tibble: 6,292 x 12
## ID Name Pref Zipcode Line Station Walk Bus Car Budget ScoreN Score
## <chr> <chr> <chr> <dbl> <chr> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 e539… 居酒屋 … 東京都… 1040031 地下鉄有… 銀座一丁目駅… 3 NA NA 3000 0 NA
## 2 gfeb… 本格上海… 東京都… 1100005 地下鉄日… 仲御徒町駅… 1 NA NA 2000 2 4.5
## 3 ggt5… 食べ飲み… 東京都… 1250041 JR常磐… 金町駅 2 NA NA 2980 0 NA
## 4 g181… 博多餃子… 東京都… 1920904 JR 八王子駅… 1 NA NA 2000 0 NA
## 5 ggww… まさ屋 … 東京都… 1500042 地下鉄半… 渋谷駅 7 NA NA 380 0 NA
## 6 gdzk… 完全個室… 東京都… 1000013 地下鉄銀… 虎ノ門駅… 3 NA NA 2980 0 NA
## 7 ga2g… 鶏そば … 東京都… 1760006 西武池袋… 江古田駅… 2 NA NA 850 0 NA
## 8 gg9m… 宴会個室… 東京都… 1010021 JR 秋葉原駅… 4 NA NA 2000 3 3.33
## 9 gdvk… 中国料理… 東京都… 1000006 JR 有楽町駅… 1 NA NA 1000 2 2.5
## 10 gggb… 中国料理… 東京都… 1140002 地下鉄南… 王子駅 2 NA NA 2000 0 NA
## # … with 6,282 more rows
かなり長いコードになりましたね。しかし、もっと簡単な方法があります。それは-
を使う方法です。
df %>%
select(-Latitude, -Longitude) # select(-c(Latitude, Longitude))
## # A tibble: 6,292 x 12
## ID Name Pref Zipcode Line Station Walk Bus Car Budget ScoreN Score
## <chr> <chr> <chr> <dbl> <chr> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 e539… 居酒屋 … 東京都… 1040031 地下鉄有… 銀座一丁目駅… 3 NA NA 3000 0 NA
## 2 gfeb… 本格上海… 東京都… 1100005 地下鉄日… 仲御徒町駅… 1 NA NA 2000 2 4.5
## 3 ggt5… 食べ飲み… 東京都… 1250041 JR常磐… 金町駅 2 NA NA 2980 0 NA
## 4 g181… 博多餃子… 東京都… 1920904 JR 八王子駅… 1 NA NA 2000 0 NA
## 5 ggww… まさ屋 … 東京都… 1500042 地下鉄半… 渋谷駅 7 NA NA 380 0 NA
## 6 gdzk… 完全個室… 東京都… 1000013 地下鉄銀… 虎ノ門駅… 3 NA NA 2980 0 NA
## 7 ga2g… 鶏そば … 東京都… 1760006 西武池袋… 江古田駅… 2 NA NA 850 0 NA
## 8 gg9m… 宴会個室… 東京都… 1010021 JR 秋葉原駅… 4 NA NA 2000 3 3.33
## 9 gdvk… 中国料理… 東京都… 1000006 JR 有楽町駅… 1 NA NA 1000 2 2.5
## 10 gggb… 中国料理… 東京都… 1140002 地下鉄南… 王子駅 2 NA NA 2000 0 NA
## # … with 6,282 more rows
除外したい変数名の前に-
を付けただけです。また、-Latitude
と-Longitude
をそれぞれ指定せず、-c(Latitude, Longitude)
のようにc()
でまとめるのも可能です。
隣接した列を指定する
先ほど、df
から緯度 (Latitude
)と経度 (Longitude
)を除外する例を考えてみましょう。-
を使うと簡単ですが、場合によっては残す変数名を指定する必要もあります。
df %>%
select(ID, Name, Pref, Zipcode,
Line, Station, Walk, Bus, Car, Budget, ScoreN, Score)
よく考えてみれば、ID
からZipcode
は隣接した列ですし、Line
からScore
までもそうです。これはnames()
関数で確認できます。
names(df)
## [1] "ID" "Name" "Pref" "Zipcode" "Latitude" "Longitude"
## [7] "Line" "Station" "Walk" "Bus" "Car" "Budget"
## [13] "ScoreN" "Score"
ここで便利な演算子が:
です。これまで、x
からy
までの公差1の等差数列を作成する際にx:y
を使って来ましたが、これに非常に似ています。データフレーム (または、tibble)の「x
列からy
列まで」の表記もselect()
関数内では:
と書くことができます。したがって、上記のコードは以下のように短縮化可能です。
df %>%
select(ID:Zipcode, Line:Score)
「df
のID
からZipcode
まで、そしてLine
からScore
までの列を選択する」という意味です。非常に便利な演算子ですので、-
と合わせて覚えておきましょう。
一部の列の順番だけを変える
ある列の位置を替えたいとします。たとえば、Score
とScoreN
をそれぞれ1列目、2列目にしたい場合、どうすれば良いでしょうか。これまで勉強したことを考えると、以下のようなコードで問題ないでしょう。
df %>%
select(Score, ScoreN, ID:Budget)
## # A tibble: 6,292 x 14
## Score ScoreN ID Name Pref Zipcode Latitude Longitude Line Station Walk
## <dbl> <dbl> <chr> <chr> <chr> <dbl> <dbl> <dbl> <chr> <chr> <dbl>
## 1 NA 0 e539… 居酒屋 … 東京都… 1040031 35.7 140. 地下鉄有… 銀座一丁目駅… 3
## 2 4.5 2 gfeb… 本格上海… 東京都… 1100005 35.7 140. 地下鉄日… 仲御徒町駅… 1
## 3 NA 0 ggt5… 食べ飲み… 東京都… 1250041 35.8 140. JR常磐… 金町駅 2
## 4 NA 0 g181… 博多餃子… 東京都… 1920904 35.7 139. JR 八王子駅… 1
## 5 NA 0 ggww… まさ屋 … 東京都… 1500042 35.7 140. 地下鉄半… 渋谷駅 7
## 6 NA 0 gdzk… 完全個室… 東京都… 1000013 35.7 140. 地下鉄銀… 虎ノ門駅… 3
## 7 NA 0 ga2g… 鶏そば … 東京都… 1760006 35.7 140. 西武池袋… 江古田駅… 2
## 8 3.33 3 gg9m… 宴会個室… 東京都… 1010021 35.7 140. JR 秋葉原駅… 4
## 9 2.5 2 gdvk… 中国料理… 東京都… 1000006 35.7 140. JR 有楽町駅… 1
## 10 NA 0 gggb… 中国料理… 東京都… 1140002 35.8 140. 地下鉄南… 王子駅 2
## # … with 6,282 more rows, and 3 more variables: Bus <dbl>, Car <dbl>,
## # Budget <dbl>
しかし、dplyr
にはrelocate()
というより便利な専用関数を提供しています。relocate()
には変数名を指定するだけですが、ここで指定した変数がデータフレーム (または、tibble)の最初列の方に移動します。
df %>%
relocate(Score, ScoreN)
## # A tibble: 6,292 x 14
## Score ScoreN ID Name Pref Zipcode Latitude Longitude Line Station Walk
## <dbl> <dbl> <chr> <chr> <chr> <dbl> <dbl> <dbl> <chr> <chr> <dbl>
## 1 NA 0 e539… 居酒屋 … 東京都… 1040031 35.7 140. 地下鉄有… 銀座一丁目駅… 3
## 2 4.5 2 gfeb… 本格上海… 東京都… 1100005 35.7 140. 地下鉄日… 仲御徒町駅… 1
## 3 NA 0 ggt5… 食べ飲み… 東京都… 1250041 35.8 140. JR常磐… 金町駅 2
## 4 NA 0 g181… 博多餃子… 東京都… 1920904 35.7 139. JR 八王子駅… 1
## 5 NA 0 ggww… まさ屋 … 東京都… 1500042 35.7 140. 地下鉄半… 渋谷駅 7
## 6 NA 0 gdzk… 完全個室… 東京都… 1000013 35.7 140. 地下鉄銀… 虎ノ門駅… 3
## 7 NA 0 ga2g… 鶏そば … 東京都… 1760006 35.7 140. 西武池袋… 江古田駅… 2
## 8 3.33 3 gg9m… 宴会個室… 東京都… 1010021 35.7 140. JR 秋葉原駅… 4
## 9 2.5 2 gdvk… 中国料理… 東京都… 1000006 35.7 140. JR 有楽町駅… 1
## 10 NA 0 gggb… 中国料理… 東京都… 1140002 35.8 140. 地下鉄南… 王子駅 2
## # … with 6,282 more rows, and 3 more variables: Bus <dbl>, Car <dbl>,
## # Budget <dbl>
relocate()
を使うとID:Budget
が省略可能となり、より短いコードになります。もう一つの例は、最初に持ってくるのではなく、「ある変数の前」または「ある変数の後」に移動させるケースです。これもrelocate()
で可能ですが、もう一つの引数が必要です。Pref
とZipcdoe
の順番を変えるなら、まずは以下のような方法が考えられます。
df %>%
select(ID:Name, Zipcode, Pref, Latitude:Score)
## # A tibble: 6,292 x 14
## ID Name Zipcode Pref Latitude Longitude Line Station Walk Bus Car
## <chr> <chr> <dbl> <chr> <dbl> <dbl> <chr> <chr> <dbl> <dbl> <dbl>
## 1 e539… 居酒屋 … 1040031 東京都… 35.7 140. 地下鉄有… 銀座一丁目駅… 3 NA NA
## 2 gfeb… 本格上海… 1100005 東京都… 35.7 140. 地下鉄日… 仲御徒町駅… 1 NA NA
## 3 ggt5… 食べ飲み… 1250041 東京都… 35.8 140. JR常磐… 金町駅 2 NA NA
## 4 g181… 博多餃子… 1920904 東京都… 35.7 139. JR 八王子駅… 1 NA NA
## 5 ggww… まさ屋 … 1500042 東京都… 35.7 140. 地下鉄半… 渋谷駅 7 NA NA
## 6 gdzk… 完全個室… 1000013 東京都… 35.7 140. 地下鉄銀… 虎ノ門駅… 3 NA NA
## 7 ga2g… 鶏そば … 1760006 東京都… 35.7 140. 西武池袋… 江古田駅… 2 NA NA
## 8 gg9m… 宴会個室… 1010021 東京都… 35.7 140. JR 秋葉原駅… 4 NA NA
## 9 gdvk… 中国料理… 1000006 東京都… 35.7 140. JR 有楽町駅… 1 NA NA
## 10 gggb… 中国料理… 1140002 東京都… 35.8 140. 地下鉄南… 王子駅 2 NA NA
## # … with 6,282 more rows, and 3 more variables: Budget <dbl>, ScoreN <dbl>,
## # Score <dbl>
これをrelocate()
で書き換えるなら、.after
または.before
引数が必要になります。relocate(変数名1, .after = 変数名2)
は「変数1を変数2の直後に移動させる」
ことを意味します。
df %>%
relocate(Pref, .after = Zipcode)
## # A tibble: 6,292 x 14
## ID Name Zipcode Pref Latitude Longitude Line Station Walk Bus Car
## <chr> <chr> <dbl> <chr> <dbl> <dbl> <chr> <chr> <dbl> <dbl> <dbl>
## 1 e539… 居酒屋 … 1040031 東京都… 35.7 140. 地下鉄有… 銀座一丁目駅… 3 NA NA
## 2 gfeb… 本格上海… 1100005 東京都… 35.7 140. 地下鉄日… 仲御徒町駅… 1 NA NA
## 3 ggt5… 食べ飲み… 1250041 東京都… 35.8 140. JR常磐… 金町駅 2 NA NA
## 4 g181… 博多餃子… 1920904 東京都… 35.7 139. JR 八王子駅… 1 NA NA
## 5 ggww… まさ屋 … 1500042 東京都… 35.7 140. 地下鉄半… 渋谷駅 7 NA NA
## 6 gdzk… 完全個室… 1000013 東京都… 35.7 140. 地下鉄銀… 虎ノ門駅… 3 NA NA
## 7 ga2g… 鶏そば … 1760006 東京都… 35.7 140. 西武池袋… 江古田駅… 2 NA NA
## 8 gg9m… 宴会個室… 1010021 東京都… 35.7 140. JR 秋葉原駅… 4 NA NA
## 9 gdvk… 中国料理… 1000006 東京都… 35.7 140. JR 有楽町駅… 1 NA NA
## 10 gggb… 中国料理… 1140002 東京都… 35.8 140. 地下鉄南… 王子駅 2 NA NA
## # … with 6,282 more rows, and 3 more variables: Budget <dbl>, ScoreN <dbl>,
## # Score <dbl>
.before
を使うことできます。この場合は「Zipcode
をPref
の直前に移動させる」
ことを指定する必要があります。結果は省略しますが、自分でコードを走らせ、上と同じ結果が得られるかを確認してみてください。
df %>%
relocate(Zipcode, .before = Pref)
select()
の便利な機能
select()
関数は他にも便利な機能がいくつかあります。ここではいくつの機能を紹介しますが、より詳しい内容は?dplyr::select
を参照してください。
starts_with()
とends_with()
、contains()
、num_range()
: 特定の文字を含む変数を選択する
まずは、特定の文字を含む変数名を指定する方法です。starts_with("X")
、ends_with("X")
、contains("X")
は変数名が"X"
で始まるか、"X"
で終わるか、"X"
を含むかを判断し、条件に合う変数名を返す関数です。実際の例を見ましょう。
# ID、Nameに続いて、Scoreで始まる変数名を抽出
df %>%
select(ID, Name, starts_with("Score"))
## # A tibble: 6,292 x 4
## ID Name ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 e539604 居酒屋 龍記 京橋店 0 NA
## 2 gfeb600 本格上海料理 新錦江 上野御徒町本店 2 4.5
## 3 ggt5900 食べ飲み放題×中華ビストロ NOZOMI(のぞみ) 0 NA
## 4 g181340 博多餃子軒 八王子店 タピオカ店 Bull Pulu(ブルプル)併設 0 NA
## 5 ggww100 まさ屋 渋谷店 0 NA
## 6 gdzk500 完全個室 上海レストラン 檸檬 霞ヶ関ビル内店 0 NA
## 7 ga2g202 鶏そば きらり 0 NA
## 8 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 3 3.33
## 9 gdvk200 中国料理 宝龍 2 2.5
## 10 gggb200 中国料理 天安門 0 NA
## # … with 6,282 more rows
# eで終わる変数名を除去
df %>%
select(-ends_with("e")) # !ends_with("e")も可能
## # A tibble: 6,292 x 8
## ID Pref Station Walk Bus Car Budget ScoreN
## <chr> <chr> <chr> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 e539604 東京都 銀座一丁目駅 3 NA NA 3000 0
## 2 gfeb600 東京都 仲御徒町駅 1 NA NA 2000 2
## 3 ggt5900 東京都 金町駅 2 NA NA 2980 0
## 4 g181340 東京都 八王子駅 1 NA NA 2000 0
## 5 ggww100 東京都 渋谷駅 7 NA NA 380 0
## 6 gdzk500 東京都 虎ノ門駅 3 NA NA 2980 0
## 7 ga2g202 東京都 江古田駅 2 NA NA 850 0
## 8 gg9m100 東京都 秋葉原駅 4 NA NA 2000 3
## 9 gdvk200 東京都 有楽町駅 1 NA NA 1000 2
## 10 gggb200 東京都 王子駅 2 NA NA 2000 0
## # … with 6,282 more rows
# reを含む変数名を抽出するが、ScoreNは除去する
df %>%
select(contains("re"), -ScoreN)
## # A tibble: 6,292 x 2
## Pref Score
## <chr> <dbl>
## 1 東京都 NA
## 2 東京都 4.5
## 3 東京都 NA
## 4 東京都 NA
## 5 東京都 NA
## 6 東京都 NA
## 7 東京都 NA
## 8 東京都 3.33
## 9 東京都 2.5
## 10 東京都 NA
## # … with 6,282 more rows
他の使い方としてはX1
、X2
のような「文字+数字」の変数を選択する際、starts_with()
が活躍します。たとえば、以下のようなmyDF1
があるとします。
# tibble()の代わりにdata.frame()も使用可能
myDF1 <- tibble(
ID = 1:5,
X1 = c(2, 4, 6, 2, 7),
Y1 = c(3, 5, 1, 1, 0),
X1D = c(4, 2, 1, 6, 9),
X2 = c(5, 5, 6, 0, 2),
Y2 = c(3, 3, 2, 3, 1),
X2D = c(8, 9, 5, 0, 1),
X3 = c(3, 0, 3, 0, 2),
Y3 = c(1, 5, 9, 1, 3),
X3D = c(9, 1, 3, 3, 8)
)
myDF1
## # A tibble: 5 x 10
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9
## 2 2 4 5 2 5 3 9 0 5 1
## 3 3 6 1 1 6 2 5 3 9 3
## 4 4 2 1 6 0 3 0 0 1 3
## 5 5 7 0 9 2 1 1 2 3 8
このmyDF1
からID
、Y1
、Y2
、Y3
を抽出するにはどうすれば良いでしょうか。これらの変数は隣接していないため、:
も使えませんが、starts_with()
を使えば簡単です。
myDF1 %>%
select(ID, starts_with("Y"))
## # A tibble: 5 x 4
## ID Y1 Y2 Y3
## <int> <dbl> <dbl> <dbl>
## 1 1 3 3 1
## 2 2 5 3 5
## 3 3 1 2 9
## 4 4 1 3 1
## 5 5 0 1 3
それでは、ID
、X1
、X2
、X3
はどうでしょうか。starts_with("X")
だと、X1c
なども選択されてしまいますね。ここで-ends_with()
の出番です。つまり、「まずはstarts_with("X")
でX
で始まる変数を選択し、続いて、D
で終わるものを除外すればいいじゃん?」です。それでは、やってみましょうか。
myDF1 %>%
select(ID, starts_with("X"), -ends_with("D"))
## # A tibble: 5 x 3
## X1 X2 X3
## <dbl> <dbl> <dbl>
## 1 2 5 3
## 2 4 5 0
## 3 6 6 3
## 4 2 0 0
## 5 7 2 2
あらら、ID
も同時になくなりましたね1。実はこのような時のために用意された関数があり、それがnum_range()
です。num_range()
の第一引数はstarts_with()
関数と同じですが、第二引数も必要です。この第二引数にはnumeric型のベクトルが必要です。1:3
でも、c(1, 2, 3)
でも構いません。たとえば、ID
、X1
、X2
、X3
するには以下のように書きます。
myDF1 %>%
select(ID, num_range("X", 1:3))
## # A tibble: 5 x 4
## ID X1 X2 X3
## <int> <dbl> <dbl> <dbl>
## 1 1 2 5 3
## 2 2 4 5 0
## 3 3 6 6 3
## 4 4 2 0 0
## 5 5 7 2 2
ぱっぱらぱー!
all_of()
とany_of()
: 文字型ベクトルを用いた変数の選択
all_of()
とany_of()
はselect()
内の変数名として文字型ベクトルを使う際に用いる関数です。これは抽出したい列名が既にcharacter型ベクトルとして用意されている場合、便利な関数です。たとえば、以下のName_Vec
を考えてみましょう。
Name_Vec <- c("X1", "X2", "X3")
このName_Vec
の要素と同じ列名を持つ列とID
列をmyDF1
から抽出する方法は以下の2通りです。
myDF1[, c("ID", Name_Vec)]
## # A tibble: 5 x 4
## ID X1 X2 X3
## <int> <dbl> <dbl> <dbl>
## 1 1 2 5 3
## 2 2 4 5 0
## 3 3 6 6 3
## 4 4 2 0 0
## 5 5 7 2 2
myDF1 %>%
select(ID, all_of(Name_Vec))
## # A tibble: 5 x 4
## ID X1 X2 X3
## <int> <dbl> <dbl> <dbl>
## 1 1 2 5 3
## 2 2 4 5 0
## 3 3 6 6 3
## 4 4 2 0 0
## 5 5 7 2 2
今の例だと、select()
を使わない前者の方が便利かも知れませんが、select()
内に外の変数名も指定する場合も多いので、後者の方が汎用性は高いです。私から見れば、今の例でも後者の方が読みやすく、使いやすいと思います。
それでは以下のようなName_Vec
はどうでしょう。今回は、myDF1
に含まれていないX4
とX5
もあります。
Name_Vec <- c("X1", "X2", "X3", "X4", "X5")
myDF1 %>%
select(all_of(Name_Vec))
## Error: Can't subset columns that don't exist.
## [31mx[39m Columns `X4` and `X5` don't exist.
このようにエラーが出てしまします。つまり、all_of()
の場合、引数の要素全てがデータフレーム (または、tibble)に存在する必要があります。もし、ないものは無視して、合致する列だけ取り出したいはどうすれば良いでしょうか。そこで登場するのがany_of()
です。
myDF1 %>%
select(any_of(Name_Vec))
## # A tibble: 5 x 3
## X1 X2 X3
## <dbl> <dbl> <dbl>
## 1 2 5 3
## 2 4 5 0
## 3 6 6 3
## 4 2 0 0
## 5 7 2 2
any_of()
の方がより使いやすいと思う方も多いでしょうが、必ずしもそうとは限りません。たとえば、Name_Vec
に誤字などが含まれる場合、any_of()
だと誤字が含まれている変数は取り出しません。この場合はむしろちゃんとエラーを表示してくれた方が嬉しいですね。
last_col()
: 最後の列を選択する
普段あまり使わない機能ですが、最後の列を選択するlast_col()
という関数もあります。たとえば、last_col(0)
にすると最後の列を選択し、last_col(1)
なら最後から2番目の列を選択します。たとえば、df
からID
と最後の列を取り出してみましょう。
# IDと最後の列のみを抽出
df %>%
select(ID, last_col(0))
## # A tibble: 6,292 x 2
## ID Score
## <chr> <dbl>
## 1 e539604 NA
## 2 gfeb600 4.5
## 3 ggt5900 NA
## 4 g181340 NA
## 5 ggww100 NA
## 6 gdzk500 NA
## 7 ga2g202 NA
## 8 gg9m100 3.33
## 9 gdvk200 2.5
## 10 gggb200 NA
## # … with 6,282 more rows
最後の2行分を取り出すことも可能です。この場合はlast_col()
の引数を長さ1ベクトルでなく、長さ2以上のベクトルにします。最後の行が0
、その手前の行が1
ですから、中の引数は1:0
となります。0:1
でも可能ですが、結果が若干異なります。
# IDと最後の2列分を抽出 (引数を1:0と設定)
df %>%
select(ID, last_col(1:0))
## # A tibble: 6,292 x 3
## ID ScoreN Score
## <chr> <dbl> <dbl>
## 1 e539604 0 NA
## 2 gfeb600 2 4.5
## 3 ggt5900 0 NA
## 4 g181340 0 NA
## 5 ggww100 0 NA
## 6 gdzk500 0 NA
## 7 ga2g202 0 NA
## 8 gg9m100 3 3.33
## 9 gdvk200 2 2.5
## 10 gggb200 0 NA
## # … with 6,282 more rows
# IDと最後の2列分を抽出 (引数を0:1と設定)
df %>%
select(ID, last_col(0:1))
## # A tibble: 6,292 x 3
## ID Score ScoreN
## <chr> <dbl> <dbl>
## 1 e539604 NA 0
## 2 gfeb600 4.5 2
## 3 ggt5900 NA 0
## 4 g181340 NA 0
## 5 ggww100 NA 0
## 6 gdzk500 NA 0
## 7 ga2g202 NA 0
## 8 gg9m100 3.33 3
## 9 gdvk200 2.5 2
## 10 gggb200 NA 0
## # … with 6,282 more rows
last_col()
の引数を1:0
にするか0:1
にするかによって抽出される順番が異なります。1:0
はc(1, 0)
、0:1
はc(0, 1)
と同じであることを考えると理由は簡単です。c(1, 0)
の場合、last_col(1), last_col(0)
の順番で処理をし、c(0, 1)
はlast_col(0)
、last_col(1)
の順番で処理を行うからです。
このlast_col()
の引数を空っぽにするとそれは最後の列を意味します。これを利用すれば、「ある変数の最後の列へ移動させる」こともできます。たとえば、ID
を最後の列に移動させたい場合、relocate(ID, .after = last_col())
のように書きます。
where()
: データ型から変数を選択する
最後に、「numeric型の列のみ抽出したい」、「character型の列だけほしい」場合に便利なwhere()
関数を紹介します。where()
の中に入る引数は一つだけであり、データ型を判定する関数名が入ります。たとえば、numeric型か否かを判断する関数はis.numeric
です。df
からnumeric型の変数のみを抽出したい場合は以下のように書きます。
# numeric型の列を抽出する
df %>%
select(where(is.numeric))
## # A tibble: 6,292 x 9
## Zipcode Latitude Longitude Walk Bus Car Budget ScoreN Score
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1040031 35.7 140. 3 NA NA 3000 0 NA
## 2 1100005 35.7 140. 1 NA NA 2000 2 4.5
## 3 1250041 35.8 140. 2 NA NA 2980 0 NA
## 4 1920904 35.7 139. 1 NA NA 2000 0 NA
## 5 1500042 35.7 140. 7 NA NA 380 0 NA
## 6 1000013 35.7 140. 3 NA NA 2980 0 NA
## 7 1760006 35.7 140. 2 NA NA 850 0 NA
## 8 1010021 35.7 140. 4 NA NA 2000 3 3.33
## 9 1000006 35.7 140. 1 NA NA 1000 2 2.5
## 10 1140002 35.8 140. 2 NA NA 2000 0 NA
## # … with 6,282 more rows
!
を使って条件に合致する列を除外することも可能です。もし、character型の列を除外する場合は以下のように!where(is.character)
を指定します。
# character型でない列を抽出する
df %>%
select(!where(is.character))
## # A tibble: 6,292 x 9
## Zipcode Latitude Longitude Walk Bus Car Budget ScoreN Score
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1040031 35.7 140. 3 NA NA 3000 0 NA
## 2 1100005 35.7 140. 1 NA NA 2000 2 4.5
## 3 1250041 35.8 140. 2 NA NA 2980 0 NA
## 4 1920904 35.7 139. 1 NA NA 2000 0 NA
## 5 1500042 35.7 140. 7 NA NA 380 0 NA
## 6 1000013 35.7 140. 3 NA NA 2980 0 NA
## 7 1760006 35.7 140. 2 NA NA 850 0 NA
## 8 1010021 35.7 140. 4 NA NA 2000 3 3.33
## 9 1000006 35.7 140. 1 NA NA 1000 2 2.5
## 10 1140002 35.8 140. 2 NA NA 2000 0 NA
## # … with 6,282 more rows
&
を使って複数の条件を使うことも可能です。たとえば、ID
変数に加えて「"L"
で始まる変数の中でnumeric型の列を抽出」するコードは以下のようになります。
# IDと、Lで始まるnumeric型の列を抽出する
df %>%
select(ID, starts_with("L") & where(is.numeric))
## # A tibble: 6,292 x 3
## ID Latitude Longitude
## <chr> <dbl> <dbl>
## 1 e539604 35.7 140.
## 2 gfeb600 35.7 140.
## 3 ggt5900 35.8 140.
## 4 g181340 35.7 139.
## 5 ggww100 35.7 140.
## 6 gdzk500 35.7 140.
## 7 ga2g202 35.7 140.
## 8 gg9m100 35.7 140.
## 9 gdvk200 35.7 140.
## 10 gggb200 35.8 140.
## # … with 6,282 more rows
行の抽出
指定した行を抽出する
他にも特定の行を抽出する場合があります。たとえば、「df
の最初の5行」や「df
の8行目のケース」といった場合です。この操作にはdplyr
のslice_*()
関数群が便利です。それではそれぞれの関数の使い方について紹介していきます。その前に、実習用データとしてdf
から一部の列のみを抽出したselelct.df
を作成します。
select.df <- df %>%
select(ID, Name, Pref, Budget, Score)
slice()
: 指定した番号の行のみ抽出する
select.df
から2, 8, 9行目の行を抽出したいとします。このような簡単な操作はパッケージを使わず、以下のように抽出することができます。
# select.dfから2, 8, 9行目の行を抽出し、出力する
select.df[c(2, 8, 9),]
## # A tibble: 3 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 2000 4.5
## 2 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 東京都 2000 3.33
## 3 gdvk200 中国料理 宝龍 東京都 1000 2.5
しかし、以下のslice()
関数を使うとパイプ演算子を前後に付けることが可能であり2、コードの可読性も高いです。slice()
関数には以下のように抽出したい行の番号を入れるだけです。
# select.dfから2, 8, 9行目の行を抽出し、出力する
select.df %>%
slice(2, 8, 9) # slice(c(2, 8, 9))もOK
## # A tibble: 3 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 2000 4.5
## 2 gg9m100 宴会個室×餃子酒場 北京飯店 秋葉原本店 東京都 2000 3.33
## 3 gdvk200 中国料理 宝龍 東京都 1000 2.5
slice(2, 8, 9)
でもslice(c(2, 8, 9))
でも構いません。また、隣接した行でしたら:
を使うことも可能です。たとえば、10行目から15行目まで抽出する場合はslice(10:15)
のような書き方も出来ます。
slice_head()
: 最初のn行を抽出する
# select.dfから最初の3行抽出し、出力する
select.df %>%
slice_head(n = 3)
## # A tibble: 3 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 e539604 居酒屋 龍記 京橋店 東京都 3000 NA
## 2 gfeb600 本格上海料理 新錦江 上野御徒町本店 東京都 2000 4.5
## 3 ggt5900 食べ飲み放題×中華ビストロ NOZOMI(のぞみ) 東京都 2980 NA
これはhead(データ名, n = 出力する個数)
と同じ動きをする関数です。注意点としては引数n =
を必ず付ける点です。たとえば、slice_head(3)
にすると、select.df
の3行目のみ抽出されます。
slice_tail()
: 最後のn行を抽出する
# select.dfから最後の7行を抽出し、出力する
select.df %>%
slice_tail(n = 7)
## # A tibble: 7 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 5508852 場鶴 和歌山県 NA NA
## 2 7113351 来来亭 橋本店 和歌山県 NA NA
## 3 6364939 ばり馬 和歌山紀三井寺店 和歌山県 NA NA
## 4 7103349 ramen BIRDMAN 和歌山県 NA NA
## 5 7315303 薩摩ラーメン 斗天王 和歌山県 NA NA
## 6 7703472 まるしげ 和歌山県 NA NA
## 7 6395035 暴豚製麺所 和歌山県 NA NA
これはtail(データ名, n = 出力する個数)
と同じ動きをする関数です。ちなみに、このn
引数もn =
を明記する必要があります。
slice_max()
: 指定した変数が大きい順でn行抽出する
slice_max()
は指定した変数が大きい順でn
行抽出する関数です。たとえば、Budget
が高い順で4店舗を抽出する場合は以下のように書きます。
# select.dfからScoreの値が高い順で5行を抽出し、出力する
select.df %>%
slice_max(Budget, n = 4)
## # A tibble: 4 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 g670609 横浜ベイシェラトン ホテル&タワーズ 中国料理 彩龍 神奈川県… 8000 NA
## 2 g910420 JASMINE 憶江南 東京都 7000 NA
## 3 7176666 赤坂焼鳥 鳳 東京都 7000 NA
## 4 b612800 羽衣 銀座本店 東京都 6000 NA
slice_min()
: 指定した変数が小さい順でn行抽出する
一方、slice_min()
関数が小さい順で抽出します。
# select.dfからScoreの値が低い順で3行を抽出し、出力する
select.df %>%
slice_min(Score, n = 3)
## # A tibble: 4 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 6384909 葛西大勝軒 東京都 NA 1
## 2 6929243 由丸 アトレヴィ大塚店 東京都 NA 1
## 3 5816075 ラーメン戯拉戯拉 千葉県 NA 1
## 4 5495086 らあめん花月嵐 坂戸わかば店 埼玉県 NA 1
ただし、n = 3
と指定したはずなのに、4行が抽出されました。これは同点のケースがあるからです。実際、select.df
にはScore
が1のケースが4つあります。もし、同点の存在によりn
に収まらない場合、slice_max()
、slice_min()
関数はn
を超える行を出力します。これを強制的にn
行に合わせるためにはwith_ties = FALSE
引数を付けます。この場合、データで格納されている順でn
個のみ出力されます。
select.df %>%
slice_min(Score, n = 3, with_ties = FALSE)
## # A tibble: 3 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 6384909 葛西大勝軒 東京都 NA 1
## 2 6929243 由丸 アトレヴィ大塚店 東京都 NA 1
## 3 5816075 ラーメン戯拉戯拉 千葉県 NA 1
slice_sample()
: 無作為にn行を抽出する
最後に無作為にn
行を抽出するslice_sample()
関数です。引数はn
であり、抽出したい行数を指定します。たとえば、select.df
から無作為に10行抽出したい場合は、
# select.dfから無作為に5行を抽出し、出力する
select.df %>%
slice_sample(n = 10)
## # A tibble: 10 x 5
## ID Name Pref Budget Score
## <chr> <chr> <chr> <dbl> <dbl>
## 1 7455539 麺処 森元 松井山手店 京都府 NA NA
## 2 6918132 阿里山 兵庫県 NA 3
## 3 5842212 老麺魂 神奈川県 NA 4.14
## 4 p879915 しゃぶしゃぶ温野菜 立川南口店 東京都 3000 NA
## 5 7123501 てっぱつ屋 千葉県 NA NA
## 6 7065568 麺屋 のろし 東京都 NA NA
## 7 7494021 つけ麺専門 麺処 虎ノ王 梅田店 大阪府 NA NA
## 8 7272168 魂心家 大阪 高槻店 大阪府 NA NA
## 9 5895074 丸源ラーメン 枚方店 大阪府 NA NA
## 10 6930065 ラーメン青木亭 野田店 千葉県 750 NA
のように書きます。ブートストラップ法や機械学習における交差検証 (cross-validation)の際に有用な関数ですが、ブートストラップや機械学習のパッケージの多くはサンプル分割の関数を提供しているため、あまり使う機会はないでしょう。また、slice_sample()
関数をブートストラップ法のために用いる場合は、ケースを反復抽出する必要があり、replace = TRUE
を付けると反復抽出を行います。デフォルト値はFALSE
です。
条件に合致する行を抽出する
これまで見てきたslice()
を用いる行の抽出は、実際あまり使う機会がありません。多くの場合、「何かの条件と合致するケースのみ抽出する」または、「何かの条件と合致しないケースのみを抽出する」やこれらの組み合わせで行の抽出を行います。そこで登場するのがdplyr()
パッケージのfilter()
関数です。filter()
関数の使い方は以下の通りです。
# dplyr::filter()の使い方
filter(データフレーム/tibble名, 条件1, 条件2, ...)
むろん、第一引数がデータですから、%>%
を使うことも可能です。
# dplyr::filter()の使い方 (パイプを使う方法)
データフレーム/tibble名 %>%
filter(条件1, 条件2, ...)
まずは、条件が一つの場合を考えてみましょう。ここでは「Pref
が"京都府"
であるケースのみに絞り、Name
とStation
、Score
列のみを出力する」ケースを考えてみましょう。まず、filter()
関数で行を抽出し、続いてselect()
関数で抽出する列を指定します。むろん、今回の場合、filter()
とselect()
の順番は替えても構いません。
# dfからPrefが"京都府"であるケースのみ残し、df2という名で保存
df2 <- df %>%
filter(Pref == "京都府")
# df2からName, Station, Score列を抽出
df2 %>%
select(Name, Station, Score)
## # A tibble: 414 x 3
## Name Station Score
## <chr> <chr> <dbl>
## 1 中国料理 鳳麟 くいな橋駅 NA
## 2 黒毛和牛一頭買い焼肉と 炊き立て土鍋ご飯 市場小路 烏丸店 四条駅 3.19
## 3 京の中華 ハマムラ みやこみち店 京都駅 NA
## 4 焼肉処 真 桂店 桂駅 NA
## 5 祇園京都ラーメン 祇園四条駅 NA
## 6 創作料理 串カツ トンカツ jiro 新田辺駅 NA
## 7 祇園 晩餐のあと 祇園四条駅 NA
## 8 DETAIL 東山駅 NA
## 9 めんや龍神 北大路駅 NA
## 10 無尽蔵 京都八条家 京都駅 3.5
## # … with 404 more rows
これはdf
からPref == "京都府"
のケースのみ残したものをdf2
として格納し、それをまたselect()
関数を使って列を抽出するコードです。これでも問題ありませんが、これだとパイプ演算子の便利さが分かりません。パイプ演算子は複数使うことが可能です。
df %>%
filter(Pref == "京都府") %>%
select(Name, Station, Score)
## # A tibble: 414 x 3
## Name Station Score
## <chr> <chr> <dbl>
## 1 中国料理 鳳麟 くいな橋駅 NA
## 2 黒毛和牛一頭買い焼肉と 炊き立て土鍋ご飯 市場小路 烏丸店 四条駅 3.19
## 3 京の中華 ハマムラ みやこみち店 京都駅 NA
## 4 焼肉処 真 桂店 桂駅 NA
## 5 祇園京都ラーメン 祇園四条駅 NA
## 6 創作料理 串カツ トンカツ jiro 新田辺駅 NA
## 7 祇園 晩餐のあと 祇園四条駅 NA
## 8 DETAIL 東山駅 NA
## 9 めんや龍神 北大路駅 NA
## 10 無尽蔵 京都八条家 京都駅 3.5
## # … with 404 more rows
全く同じ結果ですが、無駄にdf2
というデータフレーム (または、tibble)を作らず済むので、メモリの観点からも嬉しいですし、何よりコードが短く、しかも可読性も上がりました。
今回は==
を使って合致するものに絞りましたが、!=
を使って合致しないものに絞ることも可能です。または、比較演算子 (<
、>
、>=
、<=
など)を使うことも可能です。それでは、組み込み数 (ScoreN
)が0ではないケースを取り出し、Name
、Station
、ScoreN
、Score
列を出力させてみましょう。
df %>%
filter(ScoreN != 0) %>%
select(Name, Station, starts_with("Score"))
## # A tibble: 1,344 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 本格上海料理 新錦江 上野御徒町本店 仲御徒町駅 2 4.5
## 2 宴会個室×餃子酒場 北京飯店 秋葉原本店 秋葉原駅 3 3.33
## 3 中国料理 宝龍 有楽町駅 2 2.5
## 4 麺達 うま家 高田馬場駅 2 3
## 5 刀削麺・火鍋・西安料理 XI’AN(シーアン) 後楽園店… 後楽園駅 1 NA
## 6 七志らーめん 渋谷道玄坂店 渋谷駅 7 4.5
## 7 永楽 京成小岩駅 6 4.42
## 8 よってこや お台場店 お台場海浜公園駅… 1 4
## 9 ラーメン武藤製麺所 竹ノ塚駅 4 3.5
## 10 桂花ラーメン 新宿末広店 新宿三丁目駅 8 3
## # … with 1,334 more rows
これで口コミ数が1以上の店舗のみに絞ることができました。ただし、店によっては口コミはあっても、評価 (Score
)が付いていないところもあります。たとえば、「刀削麺・火鍋・西安料理 XI’AN(シーアン) 後楽園店」の場合、口コミはありますが、評価はありません。したがって、今回は評価が付いている店舗に絞ってみましょう。
df %>%
filter(Score != NA) %>%
select(Name, Station, starts_with("Score"))
## # A tibble: 0 x 4
## # … with 4 variables: Name <chr>, Station <chr>, ScoreN <dbl>, Score <dbl>
あらら、何の結果も表示されませんでした。これはfilter()
内の条件に合致するケースが存在しないことを意味します。しかし、先ほどの結果を見ても、評価が付いている店はいっぱいありましたね。これはなぜでしょう。
察しの良い読者さんは気づいているかと思いますが、NA
か否かを判定する際は==
や!=
は使えません。is.na()
を使います。filter(is.na(Score))
なら「Score
がNA
であるケースに絞る」ことを意味しますが、今回は「Score
がNA
でないケースに絞る」ことが目的ですので、is.na()
の前に!
を付けます。
df %>%
filter(!is.na(Score)) %>%
select(Name, Station, starts_with("Score"))
## # A tibble: 1,134 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 本格上海料理 新錦江 上野御徒町本店 仲御徒町駅 2 4.5
## 2 宴会個室×餃子酒場 北京飯店 秋葉原本店 秋葉原駅 3 3.33
## 3 中国料理 宝龍 有楽町駅 2 2.5
## 4 麺達 うま家 高田馬場駅 2 3
## 5 七志らーめん 渋谷道玄坂店 渋谷駅 7 4.5
## 6 永楽 京成小岩駅 6 4.42
## 7 よってこや お台場店 お台場海浜公園駅 1 4
## 8 ラーメン武藤製麺所 竹ノ塚駅 4 3.5
## 9 桂花ラーメン 新宿末広店 新宿三丁目駅 8 3
## 10 北斗 新橋店 新橋駅 4 2.5
## # … with 1,124 more rows
これで口コミ評価が登録された店舗に絞ることができました。
続いて、複数の条件を持つケースを考えてみましょう。例えば、「京都府内の店舗で、口コミ評価が3.5以上の店舗」を出力したい場合、以下のようなコードとなります。
df %>%
filter(Pref == "京都府", Score >= 3.5) %>%
select(Name, Station, ScoreN, Score)
## # A tibble: 53 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 無尽蔵 京都八条家 京都駅 2 3.5
## 2 一蘭 京都河原町店 河原町駅 2 3.75
## 3 ミスター・ギョーザ 西大路駅 8 4.06
## 4 一蘭 京都八幡店 樟葉駅 3 4
## 5 中華料理 清華園 京都駅 3 5
## 6 まがり <NA> 2 4
## 7 魁力屋 北山店 北大路駅 2 4.25
## 8 大中BAL横店 <NA> 7 4.1
## 9 こうちゃん 西舞鶴駅 1 5
## 10 大黒ラーメン 伏見桃山駅 4 4.25
## # … with 43 more rows
条件をfilter()
内に追加するだけです。今回は!is.na(Score)
は不要です。なぜなら、Score >= 3.5
という条件で既に欠損値は対象外になるからです。条件文が複数ある場合、ANDかORかを指定する必要があります。つまり、条件文AとBがある場合、「AとB両方満たすものを出力する」か「AとBどちらかを満たすものを出力するか」を指定する必要があります。今の結果ってANDでしたよね。filter()
関数は、別途の指定がない場合、全てAND扱いになります。RのAND演算子は&
ですので、以上のコードは以下のコードと同じです。
df %>%
filter(Pref == "京都府" & Score >= 3.5) %>%
select(Name, Station, ScoreN, Score)
## # A tibble: 53 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 無尽蔵 京都八条家 京都駅 2 3.5
## 2 一蘭 京都河原町店 河原町駅 2 3.75
## 3 ミスター・ギョーザ 西大路駅 8 4.06
## 4 一蘭 京都八幡店 樟葉駅 3 4
## 5 中華料理 清華園 京都駅 3 5
## 6 まがり <NA> 2 4
## 7 魁力屋 北山店 北大路駅 2 4.25
## 8 大中BAL横店 <NA> 7 4.1
## 9 こうちゃん 西舞鶴駅 1 5
## 10 大黒ラーメン 伏見桃山駅 4 4.25
## # … with 43 more rows
AND演算子 (&
)が使えるということはOR演算子 (|
)も使えることを意味します。たとえば、Station
が"高田馬場駅"
か"三田駅"
の条件を指定したい場合、
df %>%
filter(Station == "高田馬場駅" | Station == "三田駅") %>%
select(Name, Station, ScoreN, Score)
## # A tibble: 14 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 麺達 うま家 高田馬場駅 2 3
## 2 らぁ麺 やまぐち 高田馬場駅 7 4.08
## 3 博多一瑞亭 三田店 三田駅 0 NA
## 4 つけ麺屋 ひまわり 高田馬場駅 4 2.75
## 5 石器ラーメン 高田馬場 高田馬場駅 0 NA
## 6 旨辛らーめん 表裏 高田馬場駅 0 NA
## 7 三歩一 高田馬場駅 8 4.56
## 8 えぞ菊 戸塚店 高田馬場駅 4 3.62
## 9 麺屋 宗 高田馬場駅 5 4.2
## 10 とんこつラーメン 博多風龍 高田馬場店 高田馬場駅 2 3
## 11 横浜家系ラーメン 馬場壱家 高田馬場駅 0 NA
## 12 らーめん よし丸 高田馬場駅 1 5
## 13 札幌ラーメン どさん子 三田店 三田駅 0 NA
## 14 天下一品 三田店 三田駅 0 NA
のように書きます(ちなみに高田馬場の「やまぐち」は本当に美味しいです)。むろん、複数の変数を用いたORも可能です。たとえば、「Pref
が"京都府"
かScore
が3以上」のような条件も可能ですが (Pref == "京都府" | Score >= 3
)、実際、このような例はあまりありません。よく使うのは「変数X
がa
かb
かc
か」のような例です。ただし、この場合は|
を使わないもっと簡単な方法があります。それは%in%
演算子です。以下のコードは上のコードと同じものです。
df %>%
filter(Station %in% c("高田馬場駅", "三田駅")) %>%
select(Name, Station, ScoreN, Score)
## # A tibble: 14 x 4
## Name Station ScoreN Score
## <chr> <chr> <dbl> <dbl>
## 1 麺達 うま家 高田馬場駅 2 3
## 2 らぁ麺 やまぐち 高田馬場駅 7 4.08
## 3 博多一瑞亭 三田店 三田駅 0 NA
## 4 つけ麺屋 ひまわり 高田馬場駅 4 2.75
## 5 石器ラーメン 高田馬場 高田馬場駅 0 NA
## 6 旨辛らーめん 表裏 高田馬場駅 0 NA
## 7 三歩一 高田馬場駅 8 4.56
## 8 えぞ菊 戸塚店 高田馬場駅 4 3.62
## 9 麺屋 宗 高田馬場駅 5 4.2
## 10 とんこつラーメン 博多風龍 高田馬場店 高田馬場駅 2 3
## 11 横浜家系ラーメン 馬場壱家 高田馬場駅 0 NA
## 12 らーめん よし丸 高田馬場駅 1 5
## 13 札幌ラーメン どさん子 三田店 三田駅 0 NA
## 14 天下一品 三田店 三田駅 0 NA
結局、|
が使われるケースがかなり限定されます。あるとすれば、「変数X
がa
以下か、b
以上か」のようなケースですね。ただし、&
と|
を同時に使うケースは考えられます。たとえば、大阪駅と京都駅周辺のうまいラーメン屋を調べるとします。問題は美味しさの基準ですが、3.5点以上としましょう。ただし、京都府民はラーメンに非常に厳しく、3点以上なら美味しいと仮定します。この場合、「(Station
が"大阪駅"
かつScore >= 3.5
)、または(Station
が"京都駅"
かつScore >= 3
)」のような条件が必要になります。()
は「()
の中から判定せよ」という、普通の算数での使い方と同じです。それでは、実際に検索してみましょう。
df %>%
filter((Station == "大阪駅" & Score >= 3.5) | (Station == "京都駅" & Score >= 3)) %>%
select(Name, Station, Walk, ScoreN, Score)
## # A tibble: 6 x 5
## Name Station Walk ScoreN Score
## <chr> <chr> <dbl> <dbl> <dbl>
## 1 Lei can ting 大阪ルクア店 大阪駅 3 3 4
## 2 神座 ルクア大阪店 大阪駅 1 10 3.94
## 3 みつか坊主 醸 大阪駅 10 4 5
## 4 無尽蔵 京都八条家 京都駅 5 2 3.5
## 5 中華料理 清華園 京都駅 10 3 5
## 6 ますたに 京都拉麺小路店 京都駅 9 3 3.67
Songが大好きな神座がヒットして嬉しいです。
行のソート
続いて、行のソートについて解説します。「食べログ」などのレビューサービスを利用する場合、口コミ評価が高い順で見るのが一般的でしょう3。また、サッカーのランキングも多くは1位から下の順位で掲載されるのが一般的です。ここではこのようにある変数の値順に行を並び替える方法について説明します。
ソートにはdplyr
パッケージのarrange()
関数を使います。引数は変数名のみです。たとえば、奈良県のラーメン屋を検索してみましょう。並び替える順は駅から近い店舗を上位に、遠い店舗を下位に並べます。このような順は昇順 (ascending)と呼ばれ、ランキング表などでよく見ます。駅から近い順にソートするので、まず最寄りの駅情報が欠損でないことが必要です。また、ラーメン屋の評価も気になるので口コミが1つ以上付いている店舗に絞りましょう。表示する列は店舗名、最寄りの駅、徒歩距離、口コミ数、点数です。
df %>%
filter(Pref == "奈良県", !is.na(Station), ScoreN > 0) %>%
select(Name, Station, Walk, ScoreN, Score) %>%
arrange(Walk) %>%
print(n = Inf)
## # A tibble: 24 x 5
## Name Station Walk ScoreN Score
## <chr> <chr> <dbl> <dbl> <dbl>
## 1 麺屋 あまのじゃく 本店 富雄駅 2 2 4.5
## 2 紀州和歌山らーめんきぶんや 奈良富雄店 富雄駅 4 1 4
## 3 ラーメン家 みつ葉 富雄駅 4 1 3.5
## 4 天下一品 新大宮店 新大宮駅 6 1 3
## 5 麺屋 一徳 天理駅 7 1 3
## 6 丸源ラーメン 橿原店 金橋駅 8 1 3.5
## 7 らーめん食堂 よってこや 平群店 元山上口駅 10 1 4
## 8 天理スタミナラーメン本店 櫟本駅 11 2 3.25
## 9 博多長浜らーめん夢街道 奈良土橋店 真菅駅 11 1 3.5
## 10 ぶ~け 奈良駅 11 1 5
## 11 つけめん らーめん元喜神 押熊店 学研奈良登美ヶ丘駅 12 4 4.12
## 12 彩華ラーメン 本店 前栽駅 12 5 3.6
## 13 力皇 天理駅 13 1 3.5
## 14 らーめん きみちゃん 京終駅 14 2 4.5
## 15 無鉄砲がむしゃら 帯解駅 15 2 4
## 16 彩華ラーメン 田原本店 石見駅 15 1 4
## 17 神座 大和高田店 大和高田駅 17 2 3.75
## 18 彩華ラーメン 奈良店 尼ヶ辻駅 17 3 4.33
## 19 彩華ラーメン 桜井店 大福駅 18 1 3
## 20 天下一品 東生駒店 東生駒駅 19 1 3.5
## 21 まりお流ラーメン 新大宮駅 20 1 5
## 22 どうとんぼり神座 奈良柏木店 西ノ京駅 22 1 3
## 23 河童ラーメン本舗 押熊店 学研奈良登美ヶ丘駅 28 1 4
## 24 博多長浜らーめん 夢街道 四条大路店 新大宮駅 29 4 2.88
3行まではこれまで習ってきたもので、4行目がソートの関数、arrange()
です。引数はソートの基準となる変数で、今回は最寄りの駅からの徒歩距離を表すWalk
です。5行目は省略可能ですが、tibble
クラスの場合、10行までしか出力されないので、print(n = Inf)
で「すべての行を表示」させます。n
を指定することで出力される行数が調整可能です。奈良県のラーメン屋の中で最寄りの駅から最も近い店は「麺屋 あまのじゃく 本店」で徒歩2分でした。京田辺店も駅から約2分ですし、近いですね。ちなみにSongはここの塩とんこつが好きです。世界一こってりなラーメンとも言われる「チョモランマ」で有名な「まりお流ラーメン」は新大宮駅から徒歩20分でかなり遠いことが分かります。
続いて、駅からの距離ではなく、評価が高い順にしてみましょう。評価が高いほど上に来るので、今回は昇順でなく、降順 (descending)でソートする必要があります。arrange()
関数は基本的に、指定された変数を基準に昇順でソートします。降順にするためにはdesc()
関数を更に用います。たとえば、arrange(desc(変数名))
のようにです。それでは実際にやってみましょう。上のコードの4行目をarange(Walk)
からarrange(desc(Score))
にちょっと修正するだけです。
df %>%
filter(Pref == "奈良県", !is.na(Station), ScoreN > 0) %>%
select(Name, Station, Walk, ScoreN, Score) %>%
arrange(desc(Score)) %>%
print(n = Inf)
## # A tibble: 24 x 5
## Name Station Walk ScoreN Score
## <chr> <chr> <dbl> <dbl> <dbl>
## 1 まりお流ラーメン 新大宮駅 20 1 5
## 2 ぶ~け 奈良駅 11 1 5
## 3 麺屋 あまのじゃく 本店 富雄駅 2 2 4.5
## 4 らーめん きみちゃん 京終駅 14 2 4.5
## 5 彩華ラーメン 奈良店 尼ヶ辻駅 17 3 4.33
## 6 つけめん らーめん元喜神 押熊店 学研奈良登美ヶ丘駅 12 4 4.12
## 7 河童ラーメン本舗 押熊店 学研奈良登美ヶ丘駅 28 1 4
## 8 無鉄砲がむしゃら 帯解駅 15 2 4
## 9 紀州和歌山らーめんきぶんや 奈良富雄店 富雄駅 4 1 4
## 10 彩華ラーメン 田原本店 石見駅 15 1 4
## 11 らーめん食堂 よってこや 平群店 元山上口駅 10 1 4
## 12 神座 大和高田店 大和高田駅 17 2 3.75
## 13 彩華ラーメン 本店 前栽駅 12 5 3.6
## 14 天下一品 東生駒店 東生駒駅 19 1 3.5
## 15 力皇 天理駅 13 1 3.5
## 16 博多長浜らーめん夢街道 奈良土橋店 真菅駅 11 1 3.5
## 17 ラーメン家 みつ葉 富雄駅 4 1 3.5
## 18 丸源ラーメン 橿原店 金橋駅 8 1 3.5
## 19 天理スタミナラーメン本店 櫟本駅 11 2 3.25
## 20 麺屋 一徳 天理駅 7 1 3
## 21 どうとんぼり神座 奈良柏木店 西ノ京駅 22 1 3
## 22 彩華ラーメン 桜井店 大福駅 18 1 3
## 23 天下一品 新大宮店 新大宮駅 6 1 3
## 24 博多長浜らーめん 夢街道 四条大路店 新大宮駅 29 4 2.88
よく考えてみれば、「評価が同点の場合、どうなるの?」と疑問を抱く方がいるかも知れません。たとえば、7行目の「河童ラーメン本舗 押熊店」と8行目の「無鉄砲がむしゃら」はどれも評価が4点ですが、「河童ラーメン本舗 押熊店」が先に表示されます。そのこれは簡単です。同点の場合、データセット内で上に位置する行が先に表示されます。これを確認するにはwhich()
関数を使います。()
内に条件文を指定することで、この条件に合致する要素の位置を返します。もし、条件に合致するものが複数あった場合は全ての位置を返します4。
which(df$Name == "河童ラーメン本舗 押熊店")
## [1] 6021
which(df$Name == "無鉄砲がむしゃら")
## [1] 6040
データ内に「河童ラーメン本舗 押熊店」がより上に位置することが分かります。「もし同点なら口コミ評価数が多いところにしたい」場合はどうすれば良いでしょうか。これはarrange()
内に変数名を足すだけで十分です。
df %>%
filter(Pref == "奈良県", !is.na(Station), ScoreN > 0) %>%
select(Name, Station, Walk, ScoreN, Score) %>%
arrange(desc(Score), desc(ScoreN)) %>%
print(n = Inf)
## # A tibble: 24 x 5
## Name Station Walk ScoreN Score
## <chr> <chr> <dbl> <dbl> <dbl>
## 1 まりお流ラーメン 新大宮駅 20 1 5
## 2 ぶ~け 奈良駅 11 1 5
## 3 麺屋 あまのじゃく 本店 富雄駅 2 2 4.5
## 4 らーめん きみちゃん 京終駅 14 2 4.5
## 5 彩華ラーメン 奈良店 尼ヶ辻駅 17 3 4.33
## 6 つけめん らーめん元喜神 押熊店 学研奈良登美ヶ丘駅 12 4 4.12
## 7 無鉄砲がむしゃら 帯解駅 15 2 4
## 8 河童ラーメン本舗 押熊店 学研奈良登美ヶ丘駅 28 1 4
## 9 紀州和歌山らーめんきぶんや 奈良富雄店 富雄駅 4 1 4
## 10 彩華ラーメン 田原本店 石見駅 15 1 4
## 11 らーめん食堂 よってこや 平群店 元山上口駅 10 1 4
## 12 神座 大和高田店 大和高田駅 17 2 3.75
## 13 彩華ラーメン 本店 前栽駅 12 5 3.6
## 14 天下一品 東生駒店 東生駒駅 19 1 3.5
## 15 力皇 天理駅 13 1 3.5
## 16 博多長浜らーめん夢街道 奈良土橋店 真菅駅 11 1 3.5
## 17 ラーメン家 みつ葉 富雄駅 4 1 3.5
## 18 丸源ラーメン 橿原店 金橋駅 8 1 3.5
## 19 天理スタミナラーメン本店 櫟本駅 11 2 3.25
## 20 麺屋 一徳 天理駅 7 1 3
## 21 どうとんぼり神座 奈良柏木店 西ノ京駅 22 1 3
## 22 彩華ラーメン 桜井店 大福駅 18 1 3
## 23 天下一品 新大宮店 新大宮駅 6 1 3
## 24 博多長浜らーめん 夢街道 四条大路店 新大宮駅 29 4 2.88
ソートの基準はarrange()
内において先に指定された変数の順番となります。「口コミ評価も評価数も同じなら、駅から近いところにしたい」場合は変数が3つとなり、Score
、ScoreN
、Walk
の順で入れます。
df %>%
filter(Pref == "奈良県", !is.na(Station), ScoreN > 0) %>%
select(Name, Station, Walk, ScoreN, Score) %>%
arrange(desc(Score), desc(ScoreN), Walk) %>%
print(n = Inf)
## # A tibble: 24 x 5
## Name Station Walk ScoreN Score
## <chr> <chr> <dbl> <dbl> <dbl>
## 1 ぶ~け 奈良駅 11 1 5
## 2 まりお流ラーメン 新大宮駅 20 1 5
## 3 麺屋 あまのじゃく 本店 富雄駅 2 2 4.5
## 4 らーめん きみちゃん 京終駅 14 2 4.5
## 5 彩華ラーメン 奈良店 尼ヶ辻駅 17 3 4.33
## 6 つけめん らーめん元喜神 押熊店 学研奈良登美ヶ丘駅 12 4 4.12
## 7 無鉄砲がむしゃら 帯解駅 15 2 4
## 8 紀州和歌山らーめんきぶんや 奈良富雄店 富雄駅 4 1 4
## 9 らーめん食堂 よってこや 平群店 元山上口駅 10 1 4
## 10 彩華ラーメン 田原本店 石見駅 15 1 4
## 11 河童ラーメン本舗 押熊店 学研奈良登美ヶ丘駅 28 1 4
## 12 神座 大和高田店 大和高田駅 17 2 3.75
## 13 彩華ラーメン 本店 前栽駅 12 5 3.6
## 14 ラーメン家 みつ葉 富雄駅 4 1 3.5
## 15 丸源ラーメン 橿原店 金橋駅 8 1 3.5
## 16 博多長浜らーめん夢街道 奈良土橋店 真菅駅 11 1 3.5
## 17 力皇 天理駅 13 1 3.5
## 18 天下一品 東生駒店 東生駒駅 19 1 3.5
## 19 天理スタミナラーメン本店 櫟本駅 11 2 3.25
## 20 天下一品 新大宮店 新大宮駅 6 1 3
## 21 麺屋 一徳 天理駅 7 1 3
## 22 彩華ラーメン 桜井店 大福駅 18 1 3
## 23 どうとんぼり神座 奈良柏木店 西ノ京駅 22 1 3
## 24 博多長浜らーめん 夢街道 四条大路店 新大宮駅 29 4 2.88
記述統計量の計算
summarise()
による記述統計量の計算
ある変数の平均値や標準偏差、最小値、最大値などの記述統計量 (要約統計量)を計算することも可能です。これはsummarize()
またはsummarise()
関数を使いますが、この関数は後で紹介するgroup_by()
関数と組み合わせることで力を発揮します。ここではグルーピングを考えずに、全データの記述統計量を計算する方法を紹介します。
summarise()
関数の使い方は以下の通りです。
# summarise()関数の使い方
データフレーム/tibble名 %>%
summarise(新しい変数名 = 関数名(計算の対象となる変数名))
もし、Score
変数の平均値を計算し、その結果をMean
という列にしたい場合は以下のようなコードになります。
df %>%
summarise(Mean = mean(Score))
## # A tibble: 1 x 1
## Mean
## <dbl>
## 1 NA
ただし、mean()
関数は欠損値が含まれるベクトルの場合、NA
を返します。この場合方法は2つ考えられます。
filter()
関数を使ってScore
が欠損しているケースを予め除去する。na.rm
引数を指定し、欠損値を除去した平均値を求める。
ここでは2番目の方法を使います。
df %>%
summarise(Mean = mean(Score, na.rm = TRUE))
## # A tibble: 1 x 1
## Mean
## <dbl>
## 1 3.66
df
のScore
変数の平均値はNAであることが分かります。また、summarise()
関数は複数の記述統計量を同時に計算することも可能です。以下はScore
変数の平均値、中央値、標準偏差、最小値、最大値、第一四分位点、第三四分位点を計算し、Score.Desc
という名のデータフレーム (または、tibble)に格納するコードです。
Score.Desc <- df %>%
summarize(Mean = mean(Score, na.rm = TRUE), # 平均値
Median = median(Score, na.rm = TRUE), # 中央値
SD = sd(Score, na.rm = TRUE), # 標準偏差
Min = min(Score, na.rm = TRUE), # 最小値
Max = max(Score, na.rm = TRUE), # 最大値
Q1 = quantile(Score, 0.25, na.rm = TRUE), # 第一四分位点
Q3 = quantile(Score, 0.75, na.rm = TRUE)) # 第三四分位点
Score.Desc
## # A tibble: 1 x 7
## Mean Median SD Min Max Q1 Q3
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 3.66 3.58 0.719 1 5 3 4
むろん、複数の変数に対して記述統計量を計算することも可能です。たとえば、平均予算 (Budget
)、口コミ数 (ScoreN
)、口コミ評価 (Score
)の平均値を求めるとしたら、
df %>%
summarize(Budget_Mean = mean(Budget, na.rm = TRUE), # 平均予算の平均値
SocreN_Mean = mean(ScoreN, na.rm = TRUE), # 口コミ数の平均値
Score_Mean = mean(Score, na.rm = TRUE)) # 評価の平均値
## # A tibble: 1 x 3
## Budget_Mean SocreN_Mean Score_Mean
## <dbl> <dbl> <dbl>
## 1 1232. 0.537 3.66
のように書きます。実はsummarise()
はこれくらいで十分便利です。ただし、以上の操作はもっと簡単なコードに置換できます。ただし、ラムダ式など、やや高度な内容になるため、以下の内容は飛ばして、次の節 (グルーピング)を読んでいただいても構いません。
まずは、複数の変数に対して同じ記述統計量を求める例を考えてみましょう。たとえば、Budget
、ScoreN
、Score
に対して平均値を求める例です。これはacross()
関数を使うとよりコードが短くなります。まずはacross()
関数の書き方から見ましょう。
# across()の使い方
データフレーム/tibble名 %>%
summarise(across(変数名のベクトル, 記述統計を計算する関数名, 関数の引数))
変数名のベクトルは長さ1以上のベクトルです。たとえば、Budget
、ScoreN
、Score
の場合c(Budget, ScoreN, Score)
になります。これはdf
内で隣接する変数ですからBudget:Score
の書き方も使えます。また、where()
やany_of()
、starts_with()
のような関数を使って変数を指定することも可能です。関数名はmean
やsd
などの関数名です。ここは関数名()
でななく、関数名
であることに注意してください。引数は前の関数に必要な引数です。引数を必要としない関数なら省略可能ですが、na.rm = TRUE
などの引数が必要な場合は指定する必要があります。それではBudget
、ScoreN
、Score
の平均値を計算してみましょう。
df %>%
summarize(across(Budget:Score, mean, na.rm = TRUE))
## # A tibble: 1 x 3
## Budget ScoreN Score
## <dbl> <dbl> <dbl>
## 1 1232. 0.537 3.66
across()
使わない場合、4行必要だったコードが2行になりました。変数が少ない場合はacross()
を使わない方が、可読性が高くなる場合もあります。しかし、変数が多くなる場合、可読性がやや落ちてもacross()
を使った方が効率的でしょう。
次は、ある変数に対して複数の記述統計量を計算したい場合について考えます。Budget
、ScoreN
、Score
変数の第一四分位点と第三四分位点をacross()
を使わずに計算すると家のような7行のコードになります。
df %>%
summarize(Budget_Q1 = quantile(Budget, 0.25, na.rm = TRUE),
Budget_Q3 = quantile(Budget, 0.75, na.rm = TRUE),
ScoreN_Q1 = quantile(ScoreN, 0.25, na.rm = TRUE),
ScoreN_Q3 = quantile(ScoreN, 0.75, na.rm = TRUE),
Score_Q1 = quantile(Score, 0.25, na.rm = TRUE),
Score_Q3 = quantile(Score, 0.75, na.rm = TRUE))
## # A tibble: 1 x 6
## Budget_Q1 Budget_Q3 ScoreN_Q1 ScoreN_Q3 Score_Q1 Score_Q3
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 800 1000 0 0 3 4
この作業もacross()
を使ってより短縮することができます。ここではラムダ式の知識が必要になります。ラムダ関数とは関数名を持たない無名関数 (anonymous functions)を意味しますが、詳細は割愛します。興味のある読者はWikipediaなどを参照してください。簡単にいうとその場で即席に関数を作成し、計算が終わったら破棄する関数です。ただ、Rは基本的にラムダ式を提供しているのではなく、purrr
パッケージのラムダ式スタイルを使用します。まずは、書き方から確認します。
# ラムダ式を用いたacross()の使い方
データフレーム/tibble名 %>%
summarise(across(変数名のベクトル, list(結果の変数名 = ラムダ式)))
先ほどの書き方と似ていますが、関数を複数書く必要があるため、今回は関数名をlist型にまとめます。そして、結果の変数名は結果として出力されるデータフレーム (または、tibble)の列名を指定する引数です。たとえば、Mean
にすると結果は元の変数名1_Mean
、元の変数名2_Mean
…のように出力されます。そして、ラムダ式が実際の関数が入る箇所です。とりあえず今回はコードを走らせ、結果から確認してみましょう。
df %>%
summarize(across(Budget:Score, list(Q1 = ~quantile(.x, 0.25, na.rm = TRUE),
Q3 = ~quantile(.x, 0.75, na.rm = TRUE))))
## # A tibble: 1 x 6
## Budget_Q1 Budget_Q3 ScoreN_Q1 ScoreN_Q3 Score_Q1 Score_Q3
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 800 1000 0 0 3 4
結果の列名がBudget_Q1
、Budget_Q3
、ScoreN_Q1
…のようになり、それぞれの変数の第一四分位点と第三四分位点が出力されます。問題はラムダ式の方ですが、普通の関数に非常に近いことが分かります。across()
内のラムダ式は~関数名(.x, その他の引数)
のような書き方になります。関数名の前に~
が付いていることに注意してください。分位数を求める関数はquantile()
であり、quantile(ベクトル, 分位数)
であり、必要に応じてna.rm
を付けます。この分位数が0.25なら第一四分位点、0.5なら第二四分位点 (=中央値)、0.75なら第三四分位点になります。それではラムダ式~quantile(.x, 0.25, na.rm = TRUE)
はどういう意味でしょうか。これは.x
の箇所にBudget
やScoreN
、Score
が入ることを意味します。.x
という書き方は決まりです。.y
とか.Song-san-Daisuki
などはダメです。そして、0.25
を付けることによって第一四分位点を出力するように指定します。また、Budget
、ScoreN
、Score
に欠損値がある場合、無視するようにna.rm = TRUE
を付けます。
ラムダ式を自分で定義する関数で表現すると、以下のようになります。
# 以下の3つは同じ機能をする関数である
# ラムダ式
~quantile(.x, 0.25, na.rm = TRUE)
# 一般的な関数の書き方1
名無し関数 <- function(x) {
quantile(x, 0.25, na.rm = TRUE)
}
# 一般的な関数の書き方2
名無し関数 <- function(x) quantile(x, 0.25, na.rm = TRUE)
この3つは全て同じですが、ラムダ式は関数名を持たず、その場で使い捨てる関数です。むろん、ラムダ式を使わずに事前に第一四分位点と第三四分位点を求める関数を予め作成し、ラムダ式の代わりに使うことも可能です。まずは第一四分位点と第三四分位点を求める自作関数FuncQ1
とFuncQ2
を作成します。
# ラムダ式を使わない場合は事前に関数を定義しておく必要がある
FuncQ1 <- function(x) {
quantile(x, 0.25, na.rm = TRUE)
}
FuncQ3 <- function(x) {
quantile(x, 0.75, na.rm = TRUE)
}
後は先ほどのほぼ同じ書き方ですが、今回はラムダ式を使わないため関数名に~
を付けず、関数名のみで十分です。
# やっておくと、summarise()文は簡潔になる
df %>%
summarize(across(Budget:Score, list(Q1 = FuncQ1, Q3 = FuncQ3)))
## # A tibble: 1 x 6
## Budget_Q1 Budget_Q3 ScoreN_Q1 ScoreN_Q3 Score_Q1 Score_Q3
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 800 1000 0 0 3 4
事前に関数を用意するのが面倒ですが、across()
の中身はかなりスッキリしますね。もし、このような作業を何回も行うなら、ラムダ式を使わず、自作関数を用いることも可能です。ただし、自作関数であっても引数が2つ以上必要な場合はラムダ式を使います。
summarise()
に使える便利な関数
以下の内容は後で説明するgroup_by()
関数を使っているため、まだgroup_by()
に馴染みのない読者はまずはここを読み飛ばし、グルーピングの節にお進みください。
IQR()
: 四分位範囲を求める
四分位範囲は第三四分位点から第一四分位点を引いた値であり、Rの内蔵関数であるIQR()
を使えば便利です。この関数はmean
やsd()
関数と同じ使い方となります。
df %>%
filter(!is.na(Walk)) %>% # 予め欠損したケースを除くと、後でna.rm = TRUEが不要
group_by(Pref) %>%
summarise(Mean = mean(Walk),
SD = sd(Walk),
IQR = IQR(Walk),
N = n(),
.groups = "drop") %>%
arrange(Mean)
## # A tibble: 9 x 5
## Pref Mean SD IQR N
## <chr> <dbl> <dbl> <dbl> <int>
## 1 東京都 4.29 4.49 4 919
## 2 大阪府 5.92 6.08 6 932
## 3 神奈川県 8.21 7.91 10 878
## 4 京都府 8.38 6.95 9 339
## 5 兵庫県 8.52 7.27 10 484
## 6 奈良県 10.6 6.59 10 123
## 7 千葉県 10.6 8.21 12 776
## 8 埼玉県 11.6 8.99 14 817
## 9 和歌山県 12.8 6.83 9 107
first()
、last()
、nth()
: n番目の要素を求める
稀なケースかも知れませんが、データ内、またはグループ内のn
番目の行を抽出する時があります。たとえば、市区町村の情報が格納されているデータセットで、人口が大きい順でデータがソートされているとします。各都道府県ごとに最も人口が大きい市区町村のデータ、あるいは最も少ない市区町村のデータが必要な際、first()
とlast()
関数が有効です。
それでは各都道府県ごとに「最も駅から遠いラーメン屋」の店舗名と最寄りの駅からの徒歩距離を出力したいとします。まずは、徒歩距離のデータが欠損しているケースを除去し、データを徒歩距離順でソートします。これはfilter()
とarrange()
関数を使えば簡単です。続いて、group_by()
を使って都府県単位でデータをグループ化します。最後にsummarise()
関数内にlast()
関数を使います。データは駅から近い順に鳴っているため、各都府県内の最後の行は駅から最も遠い店舗になるからです。
df %>%
filter(!is.na(Walk)) %>%
arrange(Walk) %>%
group_by(Pref) %>%
summarise(Farthest = last(Name),
Distance = last(Walk),
.groups = "drop")
## # A tibble: 9 x 3
## Pref Farthest Distance
## <chr> <chr> <dbl>
## 1 京都府 熱烈らぁめん 30
## 2 埼玉県 札幌ラーメン どさん子 小鹿野店 116
## 3 神奈川県 札幌ラーメン どさん子 中津店 73
## 4 千葉県 札幌ラーメン どさん子 佐原51号店 59
## 5 大阪府 河童ラーメン本舗 岸和田店 38
## 6 東京都 てんがら 青梅新町店 30
## 7 奈良県 博多長浜らーめん 夢街道 四条大路店 29
## 8 兵庫県 濃厚醤油 中華そば いせや 玉津店 43
## 9 和歌山県 中華そば まる乃 30
このlast()
をfirst()
に変えると、最寄りの駅から最も近い店舗情報が表示されます。また、「n
番目の情報」が必要な際はnth()
関数を使います。nth(Name, 2)
に変えることで2番目の店舗名が抽出できます。
n_distinct()
: ユニーク値の個数を求める
n_distinct()
は何種類の要素が含まれているかを計算する関数であり、length(unique())
関数と同じ機能をします。たとえば、以下のmyVec1
に対して何種類の要素があるかを確認してみましょう。
myVec1 <- c("A", "B", "B", "D", "A", "B", "D", "C", "A")
unique(myVec1)
## [1] "A" "B" "D" "C"
myVec1
は"A"
、"B"
、"D"
、"C"
の要素で構成されていることが分かります。これがmyVec1
のユニーク値 (unique values)です。そして、このユニーク値の個数を調べるためにlength()
を使います。
length(unique(myVec1))
## [1] 4
これでmyVec1
は4種類の値が存在することが分かります。これと全く同じ機能をする関数がn_distinct()
です。
n_distinct(myVec1)
## [1] 4
この関数をsummarise()
に使うことで、都府県ごとに駅の個数が分かります。あるいは「東京都内の選挙区に、これまでの衆院選において何人の候補者が存在したか」も分かります。ここではdf
内の都府県ごとに駅の個数を計算してみましょう。最後の駅数が多い順でソートします。
df %>%
filter(!is.na(Station)) %>% # 最寄りの駅が欠損しているケースを除去
group_by(Pref) %>%
summarise(N_Station = n_distinct(Station),
.groups = "drop") %>%
arrange(desc(N_Station))
## # A tibble: 9 x 2
## Pref N_Station
## <chr> <int>
## 1 東京都 368
## 2 大阪府 341
## 3 千葉県 241
## 4 神奈川県 240
## 5 兵庫県 199
## 6 埼玉県 185
## 7 京都府 123
## 8 奈良県 52
## 9 和歌山県 46
当たり前かも知れませんが、駅数が最も多いのは東京都で次が大阪府であることが分かります。
any()
、all()
: 条件に合致するか否かを求める
any()
とall()
はベクトル内の全要素に対して条件に合致するか否かを判定する関数です。ただし、any()
は一つの要素でも条件に合致すればTRUE
を、全要素が合致しない場合FALSE
を返します。一方、all()
は全要素に対して条件を満たせばTRUE
、一つでも満たさない要素があればFALSE
を返します。以下はany()
とall()
の例です。
myVec1 <- c(1, 2, 3, 4, 5)
myVec2 <- c(1, 3, 5, 7, 11)
any(myVec1 %% 2 == 0) # myVec1を2で割った場合、一つでも余りが0か
## [1] TRUE
all(myVec1 %% 2 == 0) # myVec1を2で割った場合、全ての余りが0か
## [1] FALSE
all(myVec2 %% 2 != 0) # myVec2を2で割った場合、全ての余りが0ではないか
## [1] TRUE
それでは実際にdf
に対してany()
とall()
関数を使ってみましょう。一つ目は「ある都府県に最寄りの駅から徒歩60分以上の店舗が一つでもあるか」であり、二つ目は「ある都府県の店舗は全て最寄りの駅から徒歩30分以下か」です。それぞれの結果をOver60
とWithin30
という列で出力してみましょう。
df %>%
group_by(Pref) %>%
summarise(Over60 = any(Walk >= 60, na.rm = TRUE),
Within30 = all(Walk <= 30, na.rm = TRUE),
.groups = "drop")
## # A tibble: 9 x 3
## Pref Over60 Within30
## <chr> <lgl> <lgl>
## 1 京都府 FALSE TRUE
## 2 埼玉県 TRUE FALSE
## 3 神奈川県 TRUE FALSE
## 4 千葉県 FALSE FALSE
## 5 大阪府 FALSE FALSE
## 6 東京都 FALSE TRUE
## 7 奈良県 FALSE TRUE
## 8 兵庫県 FALSE FALSE
## 9 和歌山県 FALSE TRUE
埼玉県と神奈川県において、最寄りの駅から徒歩60以上の店がありました。また、京都府、東京都、奈良県、和歌山県の場合、全店舗が最寄りの駅から徒歩30分以下ということが分かります。当たり前ですがOver60
がTRUE
ならWithin30
は必ずFALSE
になりますね。
グルーピング
group_by()
によるグループ化
先ほどのsummarise()
関数は確かに便利ですが、特段に便利とも言いにくいです。df
のScore
の平均値を計算するだけなら、summarise()
関数を使わない方が楽です。
# これまでのやり方
df %>%
summarise(Mean = mean(Score, na.rm = TRUE))
## # A tibble: 1 x 1
## Mean
## <dbl>
## 1 3.66
# 普通にこれでええんちゃう?
mean(df$Score, na.rm = TRUE)
## [1] 3.663457
しかし、これをグループごとに計算するならどうでしょう。たとえば、Score
の平均値を都府県ごとに計算するとします。この場合、以下のようなコードになります。
mean(df$Score[df$Pref == "東京都"], na.rm = TRUE)
## [1] 3.674256
mean(df$Score[df$Pref == "神奈川県"], na.rm = TRUE)
## [1] 3.533931
mean(df$Score[df$Pref == "千葉県"], na.rm = TRUE)
## [1] 3.715983
mean(df$Score[df$Pref == "埼玉県"], na.rm = TRUE)
## [1] 3.641573
mean(df$Score[df$Pref == "大阪府"], na.rm = TRUE)
## [1] 3.765194
mean(df$Score[df$Pref == "京都府"], na.rm = TRUE)
## [1] 3.684976
mean(df$Score[df$Pref == "兵庫県"], na.rm = TRUE)
## [1] 3.543936
mean(df$Score[df$Pref == "奈良県"], na.rm = TRUE)
## [1] 3.854762
mean(df$Score[df$Pref == "和歌山県"], na.rm = TRUE)
## [1] 3.96999
変わったのはdf$Score
がdf$Score[df$Pref == "東京都"]
に変わっただけです。df$Pref
が"東京都"
であるか否かをTRUE
とFALSE
で判定し、これを基準にdf$Score
を抽出する仕組みです。df$Score
とdf$Pref
は同じデータフレーム (または、tibble)ですから、このような書き方で問題ありません。
これだけでもかなり書くのが面倒ですが、これが47都道府県なら、あるいは200ヶ国ならかなり骨の折れる作業でしょう。ここで大活躍するのがdplyr
パッケージのgroup_by()
関数です。引数はグループ化する変数名だけです。先ほどの作業をdplyr
を使うならPref
変数でグループ化し、summarise()
関数で平均値を求めるだけです。今回はScore
だけでなく、ScoreN
の平均値も求めてみましょう。そして、評価が高い順にソートもしてみます。
# ScoreNとScoreの平均値をPrefごとに求める
df %>%
group_by(Pref) %>%
summarise(ScoreN_Mean = mean(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE)) %>%
arrange(desc(Score_Mean))
## `summarise()` ungrouping output (override with `.groups` argument)
## # A tibble: 9 x 3
## Pref ScoreN_Mean Score_Mean
## <chr> <dbl> <dbl>
## 1 和歌山県 0.593 3.97
## 2 奈良県 0.306 3.85
## 3 大阪府 0.516 3.77
## 4 千葉県 0.259 3.72
## 5 京都府 0.522 3.68
## 6 東京都 1.16 3.67
## 7 埼玉県 0.278 3.64
## 8 兵庫県 0.389 3.54
## 9 神奈川県 0.587 3.53
評判が最も高い都府県は和歌山県、最も低いのは神奈川県ですね。Songも和歌山ラーメンは井出系も車庫前系も好きです。しかし、大事なのは「井出系」と「車庫前系」といった分類が正しいかどうかではありません。コードが非常に簡潔となり、ソートなども自由自在であることです。都府県ごとにScoreN
とScore
の平均値を求める場合、dplyr()
を使わなかったら18行のコードとなり、ソートも自分でやる必要があります。一方、group_by()
関数を使うことによってコードが5行になりました。
また、これは2020年6月に公開されたdplyr
1.0.0からの問題ですが、group_by()
の後にsummarise()
を使うと以下のようなメッセージが出力されます。
## `summarise()` ungrouping output (override with `.groups` argument)
これはgroup_by()
で指定された変数のグループ化が自動的に解除されたことを意味します。なぜならsummarise()
をする際はPref
をグループ変数として使いましたが、出力された結果のPref
変数はもはやグループとして機能できなくなるからです。元のdf
にはPref
が"東京都"
だったケースが1000行、"京都府"
だったのが414行あったので、Pref
変数でグループ化する意味がありました。しかし、summarise()
から得られたデータフレーム (または、tibble)はPref == "東京都"
の行が1つしかありません。これはグループ化する意味がなくなったことを意味します。したがって、自動的にグループを解除してくれます。自動的にやってくれるのはありがたいことですが、可能ならば関数内に自分で明記することが推奨されます。そこで使う引数が.groups
であり、"drop"
を指定すると全てのグループ化変数を解除します。以下のようなコードだと先ほどのメッセージが表示されません。今後、意識的に入れるようにしましょう。
# ScoreNとScoreの平均値をPrefごとに求める
df %>%
group_by(Pref) %>%
summarise(ScoreN_Mean = mean(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
.groups = "drop") %>%
arrange(desc(Score_Mean))
## # A tibble: 9 x 3
## Pref ScoreN_Mean Score_Mean
## <chr> <dbl> <dbl>
## 1 和歌山県 0.593 3.97
## 2 奈良県 0.306 3.85
## 3 大阪府 0.516 3.77
## 4 千葉県 0.259 3.72
## 5 京都府 0.522 3.68
## 6 東京都 1.16 3.67
## 7 埼玉県 0.278 3.64
## 8 兵庫県 0.389 3.54
## 9 神奈川県 0.587 3.53
続いて、一つ便利な関数を紹介します。それはグループのサイズを計算する関数、n()
です。この関数をsummarise()
内に使うと、各グループに属するケース数を出力します。先ほどのコードを修正し、各グループのサイズをN
という名の列として追加してみましょう。そしてソートの順番はN
を最優先とし、同じ場合はScore_Mean
が高い方を上に出力させます。また、ScoreN_Mean
の前に、口コミ数の合計も出してみましょう。
# Prefごとに口コミ数の合計、口コミ数の平均値、評価の平均値、店舗数を求める
# 店舗数-評価の平均値順でソートする
df %>%
group_by(Pref) %>%
summarise(ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
ScoreN_Mean = mean(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
N = n(),
.groups = "drop") %>%
arrange(desc(N), desc(Score_Mean))
## # A tibble: 9 x 5
## Pref ScoreN_Sum ScoreN_Mean Score_Mean N
## <chr> <dbl> <dbl> <dbl> <int>
## 1 大阪府 516 0.516 3.77 1000
## 2 千葉県 259 0.259 3.72 1000
## 3 東京都 1165 1.16 3.67 1000
## 4 埼玉県 278 0.278 3.64 1000
## 5 神奈川県 587 0.587 3.53 1000
## 6 兵庫県 230 0.389 3.54 591
## 7 京都府 216 0.522 3.68 414
## 8 奈良県 45 0.306 3.85 147
## 9 和歌山県 83 0.593 3.97 140
記述統計をグループごとに求めるのは普通にあり得るケースですし、実験データの場合はほぼ必須の作業でう。統制群と処置群間においてグループサイズが均一か、共変量のバラツキが十分に小さいかなどを判断する際にgroup_by()
とsummarise()
関数の組み合わせは非常に便利です。
複数の変数を用いたグループ化
グループ化変数は2つ以上指定することも可能です。たとえば、都府県 (Pref
)と最寄りの駅の路線 (Line
)でグループ化することも可能です。それではPref
とLine
でグループ化し、店舗数と口コミ数、評価の平均値を計算し、ソートの順番は店舗数、店舗数が同じなら評価の平均値が高い順にしましょう。今回もsummarise()
内に.group = "drop"
を指定し、グループ化を解除します。今回はTop 20まで出してみましょう。
# ScoreNとScoreの平均値をPrefごとに求める
df %>%
filter(!is.na(Line)) %>% # Lineが欠損していないケースのみ残す
group_by(Pref, Line) %>% # PrefとLineでグループ化
summarise(N = n(),
ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
.groups = "drop") %>%
arrange(desc(N), desc(Score_Mean)) %>%
print(n = 20)
## # A tibble: 523 x 5
## Pref Line N ScoreN_Sum Score_Mean
## <chr> <chr> <int> <dbl> <dbl>
## 1 埼玉県 東武東上線 122 27 3.68
## 2 東京都 JR 104 231 3.56
## 3 神奈川県 小田急小田原線 96 31 3.59
## 4 埼玉県 東武伊勢崎線 96 18 3.51
## 5 神奈川県 横浜市営ブルーライン 82 77 3.66
## 6 千葉県 京成本線 82 29 3.34
## 7 神奈川県 京急本線 68 40 3.33
## 8 千葉県 東武野田線 63 2 4.75
## 9 神奈川県 小田急江ノ島線 62 8 3.79
## 10 大阪府 阪急京都本線 53 32 3.67
## 11 大阪府 南海本線 52 11 4.22
## 12 兵庫県 阪神本線 52 23 3.80
## 13 埼玉県 JR高崎線 51 5 4
## 14 兵庫県 山陽電鉄本線 51 15 2.98
## 15 千葉県 JR総武本線(東京-銚子) 47 8 4
## 16 埼玉県 西武新宿線 45 8 4.17
## 17 埼玉県 秩父鉄道線 43 10 3.82
## 18 大阪府 京阪本線 43 10 3.69
## 19 千葉県 新京成電鉄 43 6 3.6
## 20 京都府 阪急京都本線 43 27 3.5
## # … with 503 more rows
ぐるなびに登録されているラーメン屋が最も多い路線は埼玉県内の東武東上線で122店舗があります。東武東上線は東京都と埼玉県をまたがる路線ですので、東武東上線だけならもっと多いかも知れませんね。
ここで一つ考えたいのはsummarise()
内の.groups
引数です。前回はグループ化に使った変数ごとに1行しか残っていなかったのでグループ化を全て解除しました。しかし、今回は状況がやや異なります。グループ化変数に使ったPref
を考えると、まだPref == "東京都"
であるケースがいくつかあります。やろうとすればまだグループ化出来る状態です。これはLine
についても同じです。Line == "東武東上線"
の行はここには表示されていないものの、まだデータに残っています。もし、これ以上グループ化しないなら今のように.groups = "drop"
が正しいですが、もしもう一回グループ化したい場合はどうすればよいでしょうか。方法は2つ考えられます。
- もう一度パイプ演算子を使って
group_by()
関数を使う (以下の9行目)。- 結果を見ると
## # Groups: Pref, Line [523]
で、ちゃんとグループ化されていることが分かります。
- 結果を見ると
df %>%
filter(!is.na(Line)) %>%
group_by(Pref, Line) %>%
summarise(N = n(),
ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
.groups = "drop") %>%
arrange(desc(N), desc(Score_Mean)) %>%
group_by(Pref, Line) %>% # group_by()、もう一度
print(n = 5)
## # A tibble: 523 x 5
## # Groups: Pref, Line [523]
## Pref Line N ScoreN_Sum Score_Mean
## <chr> <chr> <int> <dbl> <dbl>
## 1 埼玉県 東武東上線 122 27 3.68
## 2 東京都 JR 104 231 3.56
## 3 神奈川県 小田急小田原線 96 31 3.59
## 4 埼玉県 東武伊勢崎線 96 18 3.51
## 5 神奈川県 横浜市営ブルーライン 82 77 3.66
## # … with 518 more rows
.groups
引数を何とかする。
推奨される方法は2番です。具体的には.groups = "keep"
を指定するだけであり、こっちの方が無駄なコードを省けることができます。
df %>%
filter(!is.na(Line)) %>%
group_by(Pref, Line) %>%
summarise(N = n(),
ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
.groups = "keep") %>%
arrange(desc(N), desc(Score_Mean)) %>%
print(n = 5)
## # A tibble: 523 x 5
## # Groups: Pref, Line [523]
## Pref Line N ScoreN_Sum Score_Mean
## <chr> <chr> <int> <dbl> <dbl>
## 1 埼玉県 東武東上線 122 27 3.68
## 2 東京都 JR 104 231 3.56
## 3 神奈川県 小田急小田原線 96 31 3.59
## 4 埼玉県 東武伊勢崎線 96 18 3.51
## 5 神奈川県 横浜市営ブルーライン 82 77 3.66
## # … with 518 more rows
.groups
引数は"drop"
と"keep"
以外にも"drop_last"
があります。実はsummarise()
に.groups
引数を指定したい場合のデフォルト値は.groups == "drop_last"
または"keep"
ですが、ここがややこしいです。主なケースにおいてデフォルト値は"drop"
となりますとなります。.groups == "drop_last"
これは最後のグループ化変数のみ解除する意味です。今回の例だと、2番目のグループ化変数であるLine
がグループ化変数から外され、Pref
のみがグループ化変数として残る仕組みです。
それではデフォルト値が"keep"
になるのはいつでしょうか。それは記述統計量の結果が長さ2以上のベクトルである場合です。平均値を求めるmean()
、標準偏差を求めるsd()
などは、結果として長さ1のベクトルを返します。しかし、長さ2以上ののベクトルを返す関数もあります。たとえば、分位数を求めるquantile()
関数があります。quantile(ベクトル名, 0.25)
の場合、第一四分位点のみ返すため、結果は長さ1のベクトルです。しかし、quantile(ベクトル名, c(0.25, 0.5, 0.75))
のように第一四分位点から第三四分位点を同時に計算し、長さ3のベクトルが返されるケースもありますし、第二引数を省略すると、最小値・第一四分位点・第二四分位点・第三四分位点・最大値、つまり、長さ5のベクトルが返される場合があります。
# 第一四分位点のみを求める (長さ1のベクトル)
quantile(df$Walk, 0.25, na.rm = TRUE)
## 25%
## 2
# 引数を省略する (長さ5のベクトル)
quantile(df$Walk, na.rm = TRUE)
## 0% 25% 50% 75% 100%
## 1 2 5 12 116
.groups
のデフォルト値が"keep"
になるのは、このように長さ2以上のベクトルが返されるケースです。たとえば、都府県と最寄りの駅の路線でグループ化し、店舗までの徒歩距離の平均値を求めるとします。デフォルト値の変化を見るために、ここではあえて.groups
引数を省略しました。
df %>%
filter(!is.na(Walk)) %>%
group_by(Pref, Line) %>%
summarise(Mean = mean(Walk))
## `summarise()` regrouping output by 'Pref' (override with `.groups` argument)
## # A tibble: 509 x 3
## # Groups: Pref [9]
## Pref Line Mean
## <chr> <chr> <dbl>
## 1 京都府 JR 4
## 2 京都府 JR京都線 10
## 3 京都府 JR嵯峨野線 5
## 4 京都府 JR山陰本線 19
## 5 京都府 JR山陰本線(京都-米子) 9.23
## 6 京都府 JR山陰本線(京都-米子) 8.67
## 7 京都府 JR小浜線 16.5
## 8 京都府 JR小浜線 9
## 9 京都府 JR東海道本線(米原-神戸) 11.2
## 10 京都府 JR東海道本線(米原-神戸) 16.3
## # … with 499 more rows
最初はPref
とLine
でグループ化しましたが、summarise()
の後、Line
がグループ化変数から外されました。つまり、引数が"drop_last"
になっていることです。
それでは、平均値に加えて、第一四分位点と第三四分位点も計算し、Quantile
という名で格納してみましょう。
df %>%
filter(!is.na(Walk)) %>%
group_by(Pref, Line) %>%
summarise(Mean = mean(Walk),
Quantile = quantile(Walk, c(0.25, 0.75)))
## `summarise()` regrouping output by 'Pref', 'Line' (override with `.groups` argument)
## # A tibble: 1,018 x 4
## # Groups: Pref, Line [509]
## Pref Line Mean Quantile
## <chr> <chr> <dbl> <dbl>
## 1 京都府 JR 4 1.25
## 2 京都府 JR 4 5
## 3 京都府 JR京都線 10 10
## 4 京都府 JR京都線 10 10
## 5 京都府 JR嵯峨野線 5 4.5
## 6 京都府 JR嵯峨野線 5 6
## 7 京都府 JR山陰本線 19 19
## 8 京都府 JR山陰本線 19 19
## 9 京都府 JR山陰本線(京都-米子) 9.23 3
## 10 京都府 JR山陰本線(京都-米子) 9.23 13
## # … with 1,008 more rows
同じPref
、Line
のケースが2つずつ出来ています。最初に来る数値は第一四分位点、次に来るのが第三四分位点です。そして最初のグループ化変数であったPref
とLine
が、summarise()
後もグループ化変数として残っていることが分かります。
.groups
引数は記述統計量だけを計算する意味ではあまり意識する必要がありません。しかし、得られた記述統計量から何らかの計算をしたり、さらにもう一回記述統計量を求めたりする際、予期せぬ結果が得られる可能性があるため注意する必要があります。出来る限り.groups
引数は指定するようにしましょう。
変数の計算
mutate()
関数の使い方
続いて、データフレーム (または、tibble)内の変数を用いて計算を行い、その結果を新しい列として格納するmutate()
関数について紹介します。まず、mutate()
関数の書き方からです。
# mutate()関数の使い方
データフレーム/tibble名 %>%
mutate(新しい変数名 = 処理内容)
これは何らかの処理を行い、その結果を新しい変数としてデータフレーム (または、tibble)に追加することを意味します。新しく出来た変数は、基本的に最後の列になります。ここでは分単位であるWalk
を時間単位に変換したWalk_Hour
変数を作成するとします。処理内容はWalk / 60
です。最後に、都府県名、店舗名、徒歩距離 (分)、徒歩距離 (時間)のみを残し、遠い順にソートします。
df %>%
filter(!is.na(Walk)) %>%
mutate(Walk_Hour = Walk / 60) %>%
select(Pref, Name, Walk, Walk_Hour) %>%
arrange(desc(Walk_Hour))
## # A tibble: 5,375 x 4
## Pref Name Walk Walk_Hour
## <chr> <chr> <dbl> <dbl>
## 1 埼玉県 札幌ラーメン どさん子 小鹿野店 116 1.93
## 2 神奈川県 札幌ラーメン どさん子 中津店 73 1.22
## 3 千葉県 札幌ラーメン どさん子 佐原51号店 59 0.983
## 4 神奈川県 札幌ラーメン どさん子 山際店 50 0.833
## 5 千葉県 札幌ラーメン どさん子 関宿店 49 0.817
## 6 兵庫県 濃厚醤油 中華そば いせや 玉津店 43 0.717
## 7 大阪府 河童ラーメン本舗 岸和田店 38 0.633
## 8 埼玉県 ラーメン山岡家 上尾店 35 0.583
## 9 兵庫県 濃厚醤油 中華そば いせや 大蔵谷店 35 0.583
## 10 大阪府 河童ラーメン本舗 松原店 31 0.517
## # … with 5,365 more rows
mutate()
は3行目に登場しますが、これはWalk
を60に割った結果をWalk_Hour
としてデータフレーム (または、tibble)の最後の列として格納することを意味します。もし、最後の列でなく、ある変数の前、または後にしたい場合は、.before
または.after
引数を追加します。これはselect()
関数の.before
と.after
と同じ使い方です。たとえば、新しく出来たWalk_Hour
をID
とName
の間に入れたい場合は
# コードの3行名を修正 (.before使用)
mutate(Walk_Hour = Walk / 60,
.before = Name)
# コードの3行名を修正 (.after使用)
mutate(Walk_Hour = Walk / 60,
.after = ID)
のようにコードを修正します。
むろん、変数間同士の計算も可能です。たとえば、以下のようなdf2
があり、1店舗当たりの平均口コミ数を計算し、ScoreN_Mean
という変数名でScoreN_Sum
の後に格納うするとします。この場合、ScoreN_Sum
変数をN
で割るだけです。
df2 <- df %>%
group_by(Pref) %>%
summarise(Budget_Mean = mean(Budget, na.rm = TRUE),
ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
N = n(),
.groups = "drop")
df2 %>%
mutate(ScoreN_Mean = ScoreN_Sum / N,
.after = ScoreN_Sum)
## # A tibble: 9 x 6
## Pref Budget_Mean ScoreN_Sum ScoreN_Mean Score_Mean N
## <chr> <dbl> <dbl> <dbl> <dbl> <int>
## 1 京都府 1399. 216 0.522 3.68 414
## 2 埼玉県 1147. 278 0.278 3.64 1000
## 3 神奈川県 1239. 587 0.587 3.53 1000
## 4 千葉県 1124. 259 0.259 3.72 1000
## 5 大阪府 1203. 516 0.516 3.77 1000
## 6 東京都 1283. 1165 1.16 3.67 1000
## 7 奈良県 1169. 45 0.306 3.85 147
## 8 兵庫県 1197. 230 0.389 3.54 591
## 9 和歌山県 1252 83 0.593 3.97 140
このように、データ内の変数を用いた計算結果を新しい列として追加する場合は、mutate()
が便利です。これをmutate()
を使わずに処理する場合、以下のようなコードになりますが、可読性が相対的に低いことが分かります。
df2$ScoreN_Mean <- df2$ScoreN_Sum / df2$N
df2 <- df2[, c("Pref", "Budget_Mean", "Walk_Mean",
"ScoreN_Sum", "ScoreN_Mean", "Score_Mean", "N")]
むろんですが、計算には+
や/
のような演算子だけでなく、関数を使うことも可能です。たとえば、Budget
が1000円未満なら"Cheap"
、1000円以上なら"Expensive"
と示す変数Budget2
を作成する場合はifelse()
関数が使えます。
df %>%
mutate(Budget2 = ifelse(Budget < 1000, "Cheap", "Expensive")) %>%
filter(!is.na(Budget2)) %>% # Budget2が欠損した店舗を除外
group_by(Pref, Budget2) %>% # PrefとBudget2でグループ化
summarise(N = n(), # 店舗数を表示
.groups = "drop")
## # A tibble: 18 x 3
## Pref Budget2 N
## <chr> <chr> <int>
## 1 京都府 Cheap 22
## 2 京都府 Expensive 28
## 3 埼玉県 Cheap 37
## 4 埼玉県 Expensive 45
## 5 神奈川県 Cheap 66
## 6 神奈川県 Expensive 54
## 7 千葉県 Cheap 64
## 8 千葉県 Expensive 72
## 9 大阪府 Cheap 104
## 10 大阪府 Expensive 115
## 11 東京都 Cheap 206
## 12 東京都 Expensive 236
## 13 奈良県 Cheap 11
## 14 奈良県 Expensive 10
## 15 兵庫県 Cheap 39
## 16 兵庫県 Expensive 27
## 17 和歌山県 Cheap 10
## 18 和歌山県 Expensive 5
これは各都府県ごとの予算1000円未満の店と以上の店の店舗数をまとめた表となります。もし、500円未満なら"Cheap"
、500円以上~1000円未満なら"Reasonable"
、1000円以上なら"Expensive"
になるBudget3
変数を作るにはどうすればよいでしょうか。これはifelse()
を重ねることも出来ますが、ここではcase_when()
関数が便利です。まずは、ifelse()
を使ったコードは以下の通りです。
# ifelse()を使う場合
df %>%
mutate(Budget3 = ifelse(Budget < 500, "Cheap",
ifelse(Budget >= 500 & Budget < 1000, "Reasonable",
"Expensive"))) %>%
filter(!is.na(Budget3)) %>%
group_by(Pref, Budget3) %>%
summarise(N = n(),
.groups = "drop")
case_when()
を使うと以下のような書き方になります。
# ifelse()を使う場合
df %>%
mutate(Budget3 = case_when(Budget < 500 ~ "Cheap",
Budget >= 500 & Budget < 1000 ~ "Reasonable",
Budget >= 1000 ~ "Expensive"),
# 新しく出来た変数をfactor型にその場で変換することも可能
Budget3 = factor(Budget3,
levels = c("Cheap", "Reasonable", "Expensive"))) %>%
filter(!is.na(Budget3)) %>%
group_by(Pref, Budget3) %>%
summarise(N = n(),
.groups = "drop")
書く手間の観点ではcase_when()
はifelse()
と大きく違いはないかも知れませんが、コードが非常に読みやすくなっています。case_when()
関数の書き方は以下の通りです。
# case_when()の使い方
データフレーム/tibble名 %>%
mutate(新変数名 = case_when(条件1 ~ 条件1を満たす場合の結果値,
条件2 ~ 条件2を満たす場合の結果値,
条件3 ~ 条件3を満たす場合の結果値,
...))
似たような機能をする関数としてrecode()
関数があります。これは変数の値を単純に置換したい場合に便利な関数です。たとえば、都府県名をローマ字に変換するケースを考えてみましょう。
# recode()を使う場合
df2 %>%
mutate(Pref2 = recode(Pref,
"東京都" = "Tokyo",
"神奈川県" = "Kanagawa",
"千葉県" = "Chiba",
"埼玉県" = "Saitama",
"大阪府" = "Osaka",
"京都府" = "Kyoto",
"兵庫県" = "Hyogo",
"奈良県" = "Nara",
"和歌山県" = "Wakayama",
.default = "NA"))
## # A tibble: 9 x 6
## Pref Budget_Mean ScoreN_Sum Score_Mean N Pref2
## <chr> <dbl> <dbl> <dbl> <int> <chr>
## 1 京都府 1399. 216 3.68 414 Kyoto
## 2 埼玉県 1147. 278 3.64 1000 Saitama
## 3 神奈川県 1239. 587 3.53 1000 Kanagawa
## 4 千葉県 1124. 259 3.72 1000 Chiba
## 5 大阪府 1203. 516 3.77 1000 Osaka
## 6 東京都 1283. 1165 3.67 1000 Tokyo
## 7 奈良県 1169. 45 3.85 147 Nara
## 8 兵庫県 1197. 230 3.54 591 Hyogo
## 9 和歌山県 1252 83 3.97 140 Wakayama
使い方は非常に直感的です。
# recode()の使い方
データフレーム/tibble名 %>%
mutate(新変数名 = recode(元の変数名,
元の値1 = 新しい値1,
元の値2 = 新しい値2,
元の値3 = 新しい値3,
...,
.default = 該当しない場合の値))
最後の.default
引数は、もし該当する値がない場合に返す値を意味し、長さ1のベクトルを指定します。もし、指定しない場合はNA
が表示されます。また、ここには紹介しておりませんでしたが、.missing
引数もあり、これは欠損値の場合に返す値を意味します。
もう一つ注意すべきところは、今回はcharacter型変数をcharacter型へ変換したため、「"東京都" = "Tokyo"
」のような書き方をしました。しかし、numeric型からcharacter型に変換する場合は数字の部分を`
で囲む必要があります。たとえば、「`1` = "Tokyo"
」といった形式です。ただし、character型からnumeric型への場合は「"東京都" = 1
」で構いません。
recode()
は値をまとめる際にも便利です。たとえば、EastJapan
という変数を作成し、関東なら1
を、それ以外なら0
を付けるとします。そして、これはPref
変数の後に位置づけます。
# 都府県を関東か否かでまとめる
df2 %>%
mutate(EastJapan = recode(Pref,
"東京都" = 1,
"神奈川県" = 1,
"千葉県" = 1,
"埼玉県" = 1,
"大阪府" = 0,
"京都府" = 0,
"兵庫県" = 0,
"奈良県" = 0,
"和歌山県" = 0,
.default = 0),
.after = Pref)
## # A tibble: 9 x 6
## Pref EastJapan Budget_Mean ScoreN_Sum Score_Mean N
## <chr> <dbl> <dbl> <dbl> <dbl> <int>
## 1 京都府 0 1399. 216 3.68 414
## 2 埼玉県 1 1147. 278 3.64 1000
## 3 神奈川県 1 1239. 587 3.53 1000
## 4 千葉県 1 1124. 259 3.72 1000
## 5 大阪府 0 1203. 516 3.77 1000
## 6 東京都 1 1283. 1165 3.67 1000
## 7 奈良県 0 1169. 45 3.85 147
## 8 兵庫県 0 1197. 230 3.54 591
## 9 和歌山県 0 1252 83 3.97 140
ただし、関東以外は全て0になるため、以下のように省略することも可能です。
# .default引数を指定する場合
df3 <- df2 %>%
mutate(EastJapan = recode(Pref,
"東京都" = 1,
"神奈川県" = 1,
"千葉県" = 1,
"埼玉県" = 1,
.default = 0),
.after = Pref)
df3
## # A tibble: 9 x 6
## Pref EastJapan Budget_Mean ScoreN_Sum Score_Mean N
## <chr> <dbl> <dbl> <dbl> <dbl> <int>
## 1 京都府 0 1399. 216 3.68 414
## 2 埼玉県 1 1147. 278 3.64 1000
## 3 神奈川県 1 1239. 587 3.53 1000
## 4 千葉県 1 1124. 259 3.72 1000
## 5 大阪府 0 1203. 516 3.77 1000
## 6 東京都 1 1283. 1165 3.67 1000
## 7 奈良県 0 1169. 45 3.85 147
## 8 兵庫県 0 1197. 230 3.54 591
## 9 和歌山県 0 1252 83 3.97 140
新しく出来たEastJapan
のデータ型はなんでしょうか。
class(df3$EastJapan)
## [1] "numeric"
EastJapan
はnumeric型ですね。もし、これをfactor型にしたい場合はどうすればよいでしょうか。それはmutate()
内でEastJapan
を生成した後にfactor()
関数を使うだけです。
# EastJapan変数をfactor型にする
df3 <- df2 %>%
mutate(EastJapan = recode(Pref,
"東京都" = 1,
"神奈川県" = 1,
"千葉県" = 1,
"埼玉県" = 1,
.default = 0),
EastJapan = factor(EastJapan, levels = c(0, 1)),
.after = Pref)
df3$EastJapan
## [1] 0 1 1 1 0 1 0 0 0
## Levels: 0 1
EastJapan
がfactor型になりました。実は、recode
は再コーディングと同時にfactor化をしてくれる機能があります。ただし、recode()
関数でなく、recode_factor()
関数を使います。
# recode_factor()を使う方法
df3 <- df2 %>%
mutate(EastJapan = recode_factor(Pref,
"東京都" = 1,
"神奈川県" = 1,
"千葉県" = 1,
"埼玉県" = 1,
.default = 0),
.after = Pref)
df3$EastJapan
## [1] 0 1 1 1 0 1 0 0 0
## Levels: 1 0
ただし、levelの順番はrecode_factor()
内で定義された順番になることに注意してください。
factor型の処理に便利な関数
factor型の必要性
話がずれますが、可視化における名目変数の扱いについて考えたいと思います。横軸、または縦軸が気温、成績、身長のような連続変数ではなく、都道府県や国、企業のような名目変数になる場合があります。たとえば、棒グラフの横軸は図3のように、一般的に名目変数になる場合が多いです。

Figure 3: 横軸が名目変数の棒グラフ
ここでは横軸の順番に注目してください。京都府、埼玉県、神奈川県、…の順番になっていますね。「この順番で大満足だよ!」という方がいるかも知れませんが、そうでない方もおおいでしょう。普通考えられるものとしては、都道府県コードの順か、縦軸が高い順 (低い順)でしょう。都道府県コードの順だと、埼玉県、千葉県、東京都、神奈川県、京都府、大阪府、兵庫県、奈良県、和歌山県の順番になります。または、縦軸 (口コミ評価の平均値)が高い順なら和歌山県、奈良県、大阪府、…の順番になります。あるいは50音順も考えられるでしょう。アメリカの場合、州を並べる際、アルファベット順で並べます。
自分でこの順番をコントロールするには可視化の前の段階、つまりデータハンドリングの段階で順番を決めなくてはなりません。これを決めておかない場合、Rが勝手に順番を指定します。具体的にはロケール (locale)というパソコン内の空間に文字情報が含まれているわけですが、そこに保存されている文字の順番となります。たとえば、日本語ロケールには「京」が「埼」よりも先に保存されているわけです。
したがって、名目変数がグラフに含まれる場合は、名目変数の表示順番を決める必要があり、そこで必要なのがfactor型です。名目変数がcharacter型の場合、ロケールに保存されている順でソートされますが、factor型の場合、予め指定した順番でソートされます。
たとえば、df
を用いて、都道府県ごとの口コミ評価の平均値を計算し、その結果をScore_df
として保存します。
Score_df <- df %>%
group_by(Pref) %>%
summarise(Score = mean(Score, na.rm = TRUE),
.groups = "drop")
Score_df
## # A tibble: 9 x 2
## Pref Score
## <chr> <dbl>
## 1 京都府 3.68
## 2 埼玉県 3.64
## 3 神奈川県 3.53
## 4 千葉県 3.72
## 5 大阪府 3.77
## 6 東京都 3.67
## 7 奈良県 3.85
## 8 兵庫県 3.54
## 9 和歌山県 3.97
この時点で勝手にロケール順になります。実際、表示されたScore_df
を見るとPref
の下に`<chr>
と表記されており、Pref
はcharacter型であることが分かります。これをこのまま棒グラフに出してみましょう。可視化の方法は執筆中のE-Bookで詳細に解説する予定ですので、ここでは結果だけに注目してください。
Score_df %>%
ggplot() +
geom_bar(aes(x = Pref, y = Score), stat = "identity") +
labs(x = "都府県", y = "口コミ評価の平均値 (1~5)") +
theme_gray(base_family = "HiraKakuProN-W3") +
theme(text = element_text(size = 12))

Figure 4: Prefがcharacter型の場合 (1)
横軸の順番があまり直感的ではありませんね。それでは、Score_df
をScore
が高い順にソートし、Score_df2
で保存してから、もう一回試してみます。
Score_df2 <- Score_df %>%
arrange(desc(Score))
Score_df2
## # A tibble: 9 x 2
## Pref Score
## <chr> <dbl>
## 1 和歌山県 3.97
## 2 奈良県 3.85
## 3 大阪府 3.77
## 4 千葉県 3.72
## 5 京都府 3.68
## 6 東京都 3.67
## 7 埼玉県 3.64
## 8 兵庫県 3.54
## 9 神奈川県 3.53
ここでもPref
はcharacter型ですが、とりあえず、これで図を出してみます。
Score_df2 %>%
ggplot() +
geom_bar(aes(x = Pref, y = Score), stat = "identity") +
labs(x = "都府県", y = "口コミ評価の平均値 (1~5)") +
theme_gray(base_family = "HiraKakuProN-W3") +
theme(text = element_text(size = 12))

Figure 5: Prefがcharacter型の場合 (2)
結果は全く変わっておりません。それでは、Score_df
のPref
列をfactor型に変換し、順番は口コミ評価の平均値が高い順番にしてみましょう。結果はScore_df_f1
という名で保存します。
Score_df_f1 <- Score_df %>%
mutate(Pref = factor(Pref, levels = c("和歌山県", "奈良県", "大阪府",
"千葉県", "京都府", "東京都",
"埼玉県", "兵庫県", "神奈川県")))
Score_df_f1
## # A tibble: 9 x 2
## Pref Score
## <fct> <dbl>
## 1 京都府 3.68
## 2 埼玉県 3.64
## 3 神奈川県 3.53
## 4 千葉県 3.72
## 5 大阪府 3.77
## 6 東京都 3.67
## 7 奈良県 3.85
## 8 兵庫県 3.54
## 9 和歌山県 3.97
表示される順番はScore_df
とScore_df_f1
も同じですが、Pref
のデータ型が<fct>
、つまりfactor型であることが分かります。実際、Pref
列だけ抽出した場合、factor型として、和歌山県から神奈川県の順になっていることが確認できます。
Score_df_f1$Pref
## [1] 京都府 埼玉県 神奈川県 千葉県 大阪府 東京都 奈良県 兵庫県
## [9] 和歌山県
## 9 Levels: 和歌山県 奈良県 大阪府 千葉県 京都府 東京都 埼玉県 ... 神奈川県
このScore_df_f1
データを使って、図4と全く同じコードを実行した結果が図6です。

Figure 6: Prefがfactor型の場合 (1)
これまでの話をまとめるの以下の2点が分かります。
- 変数がcharacter型である場合、自動的にロケール順でソートされる。
- 変数がfactor型である場合、データ内の順番やロケール順と関係なく、指定されたレベル (水準)の順でソートされる。
とくに2番目の点についてですが、これは必ずしも順序付きfactorである必要はありません。順序付きfactor型でなくても、factor()
内で指定した順にソートされます。むろん、順序付きfactor型なら指定された順序でソートされます。
これからはfactor型変換の際に便利な関数をいくつか紹介しますが、その前に数値として表現された名目変数について話します。たとえば、Score_df_f1
に関東地域なら1
を、その他の地域なら0
を付けたKanto
という変数があるとします。
Score_df_f1 <- Score_df_f1 %>%
mutate(Kanto = ifelse(Pref %in% c("東京都", "神奈川県", "千葉県", "埼玉県"), 1, 0))
Score_df_f1
## # A tibble: 9 x 3
## Pref Score Kanto
## <fct> <dbl> <dbl>
## 1 京都府 3.68 0
## 2 埼玉県 3.64 1
## 3 神奈川県 3.53 1
## 4 千葉県 3.72 1
## 5 大阪府 3.77 0
## 6 東京都 3.67 1
## 7 奈良県 3.85 0
## 8 兵庫県 3.54 0
## 9 和歌山県 3.97 0
Kanto
変数のデータ型は、<dbl>
、つまりnumeric型です。しかし、これは明らかに名目変数ですね。これをこのままKanto
を横軸にした図を出すと図7のようになります。

Figure 7: Kantoがnumeric型の場合
この場合、図の横軸はKanto
の値が小さい順でソートされます。ただし、このような図は非常に見にくいため、1
に"関東"
、0
に"関西"
とラベルを付けたfactor型に変換した方が望ましいです。numeric型をラベル付きのfactor型にするためには、levels
引数には元の数値を、labels
引数にはそれぞれの数値に対応したラベルを指定します。また、関東の方を先に出したいので、factor()
内のlevels
引数はc(0, 1)
でなく、c(1, 0)
にします。
Score_df_f1 <- Score_df_f1 %>%
mutate(Kanto = factor(Kanto, levels = c(1, 0), labels = c("関東", "その他")))
Score_df_f1
## # A tibble: 9 x 3
## Pref Score Kanto
## <fct> <dbl> <fct>
## 1 京都府 3.68 その他
## 2 埼玉県 3.64 関東
## 3 神奈川県 3.53 関東
## 4 千葉県 3.72 関東
## 5 大阪府 3.77 その他
## 6 東京都 3.67 関東
## 7 奈良県 3.85 その他
## 8 兵庫県 3.54 その他
## 9 和歌山県 3.97 その他
Kanto
変数がfactor型に変換されたことが分かります。
Score_df_f1$Kanto
## [1] その他 関東 関東 関東 その他 関東 その他 その他 その他
## Levels: 関東 その他
また、"関東"
、"その他"
の順になっていますね。これを図として出力した結果が図8です。

Figure 8: Kantoがfactor型の場合
このように数値型名目変数でも、factor化することによって、自由に横軸の順番を変えることができます。それでは、factor化に使える便利な関数をいくつか紹介します。
forcats
パッケージについて
実はfactor型への変換や、順番に変更などは全てR内蔵のfactor()
関数で対応可能ですが、ここではforcats
パッケージが提供しているfct_*()
関数を使用します。forcats
パッケージはtidyverse
を読み込む際、自動的に読み込まれるため、既にtidyverse
を読み込んでいる場合、別途のコードは要りません。
実はfactor型への変換や、順番に変更などは全てR内蔵のfactor()
関数で対応可能ですが、ここではforcats
パッケージが提供しているfct_*()
関数を使用します。forcats
パッケージはtidyverse
を読み込む際、自動的に読み込まれるため、既にtidyverse
を読み込んでいる場合、別途のコードは要りません。
fct_relevel()
: 水準の順番を変更する
Score_df_f1
のf1
はScore
が高い順になっています。これを50音順に変更する際、fct_relevel()
関数を使います。
# 新しい変数名と元となる変数名が一致すると上書きになる
データフレーム名 %>%
mutate(新しい変数名 = fct_releve(元となる変数名,
"水準1", "水準2", "水準3", ...))
ここでは、Pref
変数を再調整したPref2
変数を作ってみましょう。
Score_df_f1 <- Score_df_f1 %>%
mutate(Pref2 = fct_relevel(Pref, "大阪府", "神奈川県", "京都府",
"埼玉県", "千葉県", "東京都",
"奈良県", "兵庫県", "和歌山県"))
Score_df_f1
## # A tibble: 9 x 4
## Pref Score Kanto Pref2
## <fct> <dbl> <fct> <fct>
## 1 京都府 3.68 その他 京都府
## 2 埼玉県 3.64 関東 埼玉県
## 3 神奈川県 3.53 関東 神奈川県
## 4 千葉県 3.72 関東 千葉県
## 5 大阪府 3.77 その他 大阪府
## 6 東京都 3.67 関東 東京都
## 7 奈良県 3.85 その他 奈良県
## 8 兵庫県 3.54 その他 兵庫県
## 9 和歌山県 3.97 その他 和歌山県
一見、Pref
とPref2
変数は同じように見えますが、水準はどうなっているでしょうか。
levels(Score_df_f1$Pref) # Prefの水準
## [1] "和歌山県" "奈良県" "大阪府" "千葉県" "京都府" "東京都" "埼玉県"
## [8] "兵庫県" "神奈川県"
levels(Score_df_f1$Pref2) # Pref2の水準
## [1] "大阪府" "神奈川県" "京都府" "埼玉県" "千葉県" "東京都" "奈良県"
## [8] "兵庫県" "和歌山県"
問題なく50音順になっていることが分かります。他にもfct_relevel()
には全ての水準名を指定する必要がありません。一部の水準名も可能です。たとえば、「関東が関西の先に来るなんでけしからん!」と思う読者もいるでしょう。この場合、関西の府県名を入れると、指定した水準が最初に位置するようになります。
Score_df_f1 <- Score_df_f1 %>%
mutate(Pref3 = fct_relevel(Pref, "京都府", "大阪府",
"兵庫県", "奈良県", "和歌山県"))
levels(Score_df_f1$Pref3) # Pref3の水準
## [1] "京都府" "大阪府" "兵庫県" "奈良県" "和歌山県" "千葉県" "東京都"
## [8] "埼玉県" "神奈川県"
一部の水準名のみを指定するとその水準が最初に移動されますが、after
引数を指定すると、位置を調整することも可能です。after = 2
の場合、元となる変数の1、3番目の水準は維持され、3番目以降に指定した水準、それに続いて指定されていない水準の順番になります。Pref
は和歌山、奈良、大阪の順ですが、ここで京都と東京を、奈良と大阪の間に移動するなら、
Score_df_f1 <- Score_df_f1 %>%
mutate(Pref4 = fct_relevel(Pref, "京都府", "東京都", after = 2))
levels(Score_df_f1$Pref4) # Pref4の水準
## [1] "和歌山県" "奈良県" "京都府" "東京都" "大阪府" "千葉県" "埼玉県"
## [8] "兵庫県" "神奈川県"
のように書きます。after
を指定しない場合のデフォルト値は0であるため、最初に移動します。
fct_recode()
: 水準のラベルを変更する
fct_recode()
は水準のラベルを変更する時に使う関数で、以下のように使います。
# 新しい変数名と元となる変数名が一致すると上書きになる
データフレーム名 %>%
mutate(新しい変数名 = fct_recode(元となる変数名,
新しいラベル1 = "既存のラベル1",
新しいラベル2 = "既存のラベル2",
新しいラベル3 = "既存のラベル3",
...))
注意点としては新しいラベルは"
で囲まず、既存のラベルは"
で囲む点です。それでは、Pref
のラベルをローマ字に変更してみましょう。
Score_df_f1 <- Score_df_f1 %>%
mutate(Pref5 = fct_recode(Pref,
Saitama = "埼玉県",
Wakayama = "和歌山県",
Kyoto = "京都府",
Osaka = "大阪府",
Tokyo = "東京都",
Nara = "奈良県",
Kanagawa = "神奈川県",
Hyogo = "兵庫県",
Chiba = "千葉県"))
Score_df_f1
## # A tibble: 9 x 7
## Pref Score Kanto Pref2 Pref3 Pref4 Pref5
## <fct> <dbl> <fct> <fct> <fct> <fct> <fct>
## 1 京都府 3.68 その他 京都府 京都府 京都府 Kyoto
## 2 埼玉県 3.64 関東 埼玉県 埼玉県 埼玉県 Saitama
## 3 神奈川県 3.53 関東 神奈川県 神奈川県 神奈川県 Kanagawa
## 4 千葉県 3.72 関東 千葉県 千葉県 千葉県 Chiba
## 5 大阪府 3.77 その他 大阪府 大阪府 大阪府 Osaka
## 6 東京都 3.67 関東 東京都 東京都 東京都 Tokyo
## 7 奈良県 3.85 その他 奈良県 奈良県 奈良県 Nara
## 8 兵庫県 3.54 その他 兵庫県 兵庫県 兵庫県 Hyogo
## 9 和歌山県 3.97 その他 和歌山県 和歌山県 和歌山県 Wakayama
fct_recode()
の中に指定する水準の順番は無視されます。つまり、水準の順番はそのまま維持されるため、好きな順番で結構です。また、全ての水準を指定せず、一部のみ変更することも可能です。それではPref5
の順番がPref
の順番と同じかを確認してみましょう。
levels(Score_df_f1$Pref) # Prefの水準
## [1] "和歌山県" "奈良県" "大阪府" "千葉県" "京都府" "東京都" "埼玉県"
## [8] "兵庫県" "神奈川県"
levels(Score_df_f1$Pref5) # Pref5の水準
## [1] "Wakayama" "Nara" "Osaka" "Chiba" "Kyoto" "Tokyo" "Saitama"
## [8] "Hyogo" "Kanagawa"
fct_rev()
: 水準の順番を反転する
水準の順番を反転することは非常によくあります。たとえば、グラフの読みやすさのために、左右または上下を反転するケースがあります。既に何回も強調しましたように、名目変数は基本的にfactor型にすべきであり、ここでfct_rev()
関数が非常に便利です。たとえば、Pref2
の水準は50音順でありますが、これを反転し、Pref6
という名の列として追加してみましょう。
Score_df_f1 <- Score_df_f1 %>%
mutate(Pref6 = fct_rev(Pref2))
levels(Score_df_f1$Pref6)
## [1] "和歌山県" "兵庫県" "奈良県" "東京都" "千葉県" "埼玉県" "京都府"
## [8] "神奈川県" "大阪府"
関数一つで水準の順番が反転されました。
fct_infreq()
: 頻度順に順番を変更する
続いて、水準の順番を頻度順に合わせるfct_infreq()
関数です。たとえば、Score
が欠損でないケースのみで構成されたdf2
を考えてみましょう。
df2 <- df %>%
filter(!is.na(Score))
そして、都府県ごとのケース数を計算します。
table(df2$Pref)
##
## 京都府 埼玉県 神奈川県 千葉県 大阪府 東京都 奈良県 兵庫県
## 79 118 219 108 175 298 28 85
## 和歌山県
## 24
ここでPref
をfactor化しますが、水準の順番を店舗数が多い方を先にするにはどうすれば良いでしょうか。fct_infreq()
関数は指定された変数の各値の個数を計算し、多い順にfactorの水準を調整します。
df2 <- df2 %>%
# 多く出現した値順でfactor化する
mutate(Pref = fct_infreq(Pref))
levels(df2$Pref) # df2のPref変数の水準を出力
## [1] "東京都" "神奈川県" "大阪府" "埼玉県" "千葉県" "兵庫県" "京都府"
## [8] "奈良県" "和歌山県"
"東京都"
、"神奈川県"
、"大阪府"
、…の順で水準の順番が調整され、これはtable(df$Pref2)
の順位とも一致します。
fct_inorder()
: データ内の出現順番に順番を変更する
続いて、fct_inorder()
ですが、これは意外と頻繁に使われる関数です。たとえば、自分でデータフレームなどを作成し、ケースの順番も綺麗に整えたとします。しかし、既に指摘した通り、データフレーム (または、tibble)での順番とグラフにおける順番は一致するとは限りません。データフレームに格納された順番でfactorの水準が設定できれば非常に便利でしょう。そこで使うのがfct_inorder()
です。
たとえば、df
のPref
は"東京都"
が1000個並び、続いて"神奈川県"
が1000個、"千葉県"
が1000個、…の順番で格納されています。この順番をそのままfactorの順番にするには以下のように書きます。
df3 <- df %>%
# Pref変数をfactor化し、水準は出現順とする
# 変換後の結果はPrefに上書きする
mutate(Pref = fct_inorder(Pref))
levels(df3$Pref)
## [1] "東京都" "神奈川県" "千葉県" "埼玉県" "大阪府" "京都府" "兵庫県"
## [8] "奈良県" "和歌山県"
fct_shift()
: 水準の順番をずらす
続いて、水準の順番をずらすfct_shift()
関数を紹介します。たとえば、「1:そう思う」〜「5:そう思わない」、「9:答えたくない」の6水準で構成された変数があるとします。
df4 <- tibble(
ID = 1:10,
Q1 = c(1, 5, 3, 2, 9, 2, 4, 9, 5, 1)
)
df4 <- df4 %>%
mutate(Q1 = factor(Q1, levels = c(1:5, 9),
labels = c("そう思う",
"どちらかと言えばそう思う",
"どちらとも言えない",
"どちらかと言えばそう思わない",
"そう思わない",
"答えたくない")))
df4
## # A tibble: 10 x 2
## ID Q1
## <int> <fct>
## 1 1 そう思う
## 2 2 そう思わない
## 3 3 どちらとも言えない
## 4 4 どちらかと言えばそう思う
## 5 5 答えたくない
## 6 6 どちらかと言えばそう思う
## 7 7 どちらかと言えばそう思わない
## 8 8 答えたくない
## 9 9 そう思わない
## 10 10 そう思う
水準の順番も「そう思う」〜「答えたくない」順で綺麗に整っています。この水準を反転するにはfct_rev()
関数が便利です。Q1
の水準を反転した変数をQ1_R
という新しい列として追加し、水準を確認してみましょう。
df4 <- df4 %>%
mutate(Q1_R = fct_rev(Q1))
df4
## # A tibble: 10 x 3
## ID Q1 Q1_R
## <int> <fct> <fct>
## 1 1 そう思う そう思う
## 2 2 そう思わない そう思わない
## 3 3 どちらとも言えない どちらとも言えない
## 4 4 どちらかと言えばそう思う どちらかと言えばそう思う
## 5 5 答えたくない 答えたくない
## 6 6 どちらかと言えばそう思う どちらかと言えばそう思う
## 7 7 どちらかと言えばそう思わない どちらかと言えばそう思わない
## 8 8 答えたくない 答えたくない
## 9 9 そう思わない そう思わない
## 10 10 そう思う そう思う
levels(df4$Q1_R)
## [1] "答えたくない" "そう思わない"
## [3] "どちらかと言えばそう思わない" "どちらとも言えない"
## [5] "どちらかと言えばそう思う" "そう思う"
「答えたくない」が最初の順番に来ましてね。できれば、「そう思わない」〜「そう思う」、「答えたくない」の順番にしたいところです。ここで使うのがfct_shift()
ですが、書き方がややこしいので、噛み砕いて解説します。
# fct_shift()の使い方
データ名 %>%
mutate(新しい変数名 = fct_shift(元の変数名, n = 左方向へずらす個数))
問題はn =
引数ですが、その挙動については以下の表を参照してください。
水準の順番 | 1番目 | 2番目 | 3番目 | 4番目 | 5番目 | 6番目 |
---|---|---|---|---|---|---|
n = -2
|
E
|
F
|
A
|
B
|
C
|
D
|
n = -1
|
F
|
A
|
B
|
C
|
D
|
E
|
n = 0
|
A
|
B
|
C
|
D
|
E
|
F
|
n = 1
|
B
|
C
|
D
|
E
|
F
|
A
|
n = 2
|
C
|
D
|
E
|
F
|
A
|
B
|
具体的には水準は左方向へn
個移動します。元の水準がA
, B
, C
, …, F
の順で、n = 1
の場合、A
がF
の後ろへ移動し、B
, C
, D
, E
, F
が前の方へ1つずつ移動します。逆に右側へ1つ移動したい場合はn = -1
のように書きます。今回は最初の水準を最後に移動させたいので、n = 1
と指定します。
df4 <- df4 %>%
# Q1_Rの水準を左方向で1ずらす
mutate(Q1_R = fct_shift(Q1_R, n = 1))
levels(df4$Q1_R)
## [1] "そう思わない" "どちらかと言えばそう思わない"
## [3] "どちらとも言えない" "どちらかと言えばそう思う"
## [5] "そう思う" "答えたくない"
これで水準の反転が完了しました。fct_shift()
はこのように世論調査データの処理に便利ですが、他にも曜日の処理に使えます。例えば、1週間の始まりを月曜にするか日曜にするかによって、fct_shift()
を使うケースがあります。
fct_shuffle()
: 水準の順番をランダム化する
あまり使わない機能ですが、水準の順番をランダム化することも可能です。使い方は非常に簡単で、fct_shuffle()
に元の変数名を入れるだけです。たとえば、Score_df
のPref
の順番をランダム化し、Pref2
として追加します。同じことをもう2回繰り返し、それぞれPref3
とPref4
という名前で追加してみましょう。
Score_df <- Score_df %>%
mutate(Pref2 = fct_shuffle(Pref),
Pref3 = fct_shuffle(Pref),
Pref4 = fct_shuffle(Pref))
Score_df
## # A tibble: 9 x 5
## Pref Score Pref2 Pref3 Pref4
## <chr> <dbl> <fct> <fct> <fct>
## 1 京都府 3.68 京都府 京都府 京都府
## 2 埼玉県 3.64 埼玉県 埼玉県 埼玉県
## 3 神奈川県 3.53 神奈川県 神奈川県 神奈川県
## 4 千葉県 3.72 千葉県 千葉県 千葉県
## 5 大阪府 3.77 大阪府 大阪府 大阪府
## 6 東京都 3.67 東京都 東京都 東京都
## 7 奈良県 3.85 奈良県 奈良県 奈良県
## 8 兵庫県 3.54 兵庫県 兵庫県 兵庫県
## 9 和歌山県 3.97 和歌山県 和歌山県 和歌山県
levels(Score_df$Pref2)
## [1] "兵庫県" "京都府" "埼玉県" "大阪府" "東京都" "千葉県" "和歌山県"
## [8] "奈良県" "神奈川県"
levels(Score_df$Pref3)
## [1] "埼玉県" "京都府" "大阪府" "神奈川県" "兵庫県" "東京都" "和歌山県"
## [8] "千葉県" "奈良県"
levels(Score_df$Pref4)
## [1] "神奈川県" "大阪府" "埼玉県" "東京都" "千葉県" "兵庫県" "奈良県"
## [8] "京都府" "和歌山県"
Pref
からPref4
まで同じように見えますが、水準の順番が異なります (Pref
はcharacter型だから水準がありません)。
fct_reorder()
: 別の1変数の値を基準に水準の順番を変更する
fct_infreq()
は出現頻度順に並び替える関数でしたが、それと似たような関数としてfct_reorder()
があります。ただし、これは出現頻度を基準にするのではなく、ある変数の平均値が低い順、中央値が高い順などでソートされます。まずは使い方から確認します。
データ名 %>%
mutate(新しい変数名 = fct_reorder(元の変数名, 基準となる変数,
関数名, 関数の引数))
必要な引数が多いですね。解説よりも実際の例を見ながら説明します。今回もPref
をfactor変数にし、Pref_R
という列で格納しますが、平均予算が安い順でfactorの水準を決めたいと思います。
df <- df %>%
mutate(Pref_R = fct_reorder(Pref, Budget, mean, na.rm = TRUE))
levels(df$Pref_R)
## [1] "千葉県" "埼玉県" "奈良県" "兵庫県" "大阪府" "神奈川県" "和歌山県"
## [8] "東京都" "京都府"
Pref_R
の水準は千葉県、埼玉県、奈良県、…の順ですが、本当にそうでしょうか。group_by()
とsummarise()
などを使って確認してみましょう。
df %>%
group_by(Pref) %>%
summarise(Budget = mean(Budget, na.rm = TRUE),
.groups = "drop") %>%
arrange(Budget)
## # A tibble: 9 x 2
## Pref Budget
## <chr> <dbl>
## 1 千葉県 1124.
## 2 埼玉県 1147.
## 3 奈良県 1169.
## 4 兵庫県 1197.
## 5 大阪府 1203.
## 6 神奈川県 1239.
## 7 和歌山県 1252
## 8 東京都 1283.
## 9 京都府 1399.
問題なくソートされましたね。注意点としてはfct_reorder()
内に関数名を書く際、()
は不要という点です。関数名の次の引数としてはその関数に別途必要な引数を指定します。引数が省略可能、あるいは不要な関数を使う場合は、省略しても構いませんし、数に制限はありません。
また、低い順ではなく、高い順にすることも可能です。次はScore
の中央値が高い順に水準を設定したPref_R2
を作ってみましょう。
df <- df %>%
mutate(Pref_R2 = fct_reorder(Pref, Score, median, na.rm = TRUE, .desc = TRUE))
levels(df$Pref_R2)
## [1] "和歌山県" "奈良県" "千葉県" "大阪府" "東京都" "埼玉県" "京都府"
## [8] "神奈川県" "兵庫県"
変わったのはmean
の代わりにmedian
を使ったこと、そして.desc
引数が追加された点です。fct_reorder()
には.desc = FALSE
がデフォルトとして指定されており、省略した場合は昇順でfactorの水準が決まります。ここで.desc = TRUE
を指定すると、降順となります。実際、Score
の中央値順になっているかを確認してみましょう。
df %>%
group_by(Pref) %>%
summarise(Score = median(Score, na.rm = TRUE),
.groups = "drop") %>%
arrange(desc(Score))
## # A tibble: 9 x 2
## Pref Score
## <chr> <dbl>
## 1 和歌山県 4
## 2 奈良県 3.88
## 3 千葉県 3.75
## 4 大阪府 3.75
## 5 東京都 3.64
## 6 埼玉県 3.61
## 7 京都府 3.5
## 8 神奈川県 3.5
## 9 兵庫県 3.5
fct_reorder2()
: 別の2変数の値を基準に水準の順番を変更する
この関数は別の変数を基準に水準が調整される点ではfct_reorder()
と類似しています。ただし、よく誤解されるのは「変数Aの値が同じなら変数Bを基準に…」といったものではありません。たとえば、fct_reorder(x, y, mean)
の場合、y
の平均値 (mean()
)の順でx
の水準を調整するという意味です。このmean()
関数に必要なデータはベクトル1つです。しかし、関数によっては2つの変数が必要な場合があります。
これは頻繁に直面する問題ではありませんが、このfct_reorder2()
関数が活躍するケースを紹介します。以下は6月27日から7月1日までの5日間、5地域におけるCOVID-19新規感染者数を表したデータです5。入力が面倒な方はここからダウンロードして読み込んでください。
# 入力が面倒ならデータをダウンロードし、
# Reorder2_df <- read_csv("Data/COVID19.csv")
Reorder2_df <- tibble(
Country = rep(c("日本", "韓国", "中国 (本土)", "台湾", "香港"),
each = 5),
Date = rep(c("2020/06/27", "2020/06/28", "2020/06/29",
"2020/06/30", "2020/07/01"), 5),
NewPat = c(100, 93, 86, 117, 130,
62, 42, 43, 50, 54,
17, 12, 19, 3, 5,
0, 0, 0, 0, 0,
1, 2, 4, 2, 28)
)
Reorder2_df <- Reorder2_df %>%
mutate(Date = as.Date(Date))
Reorder2_df
## # A tibble: 25 x 3
## Country Date NewPat
## <chr> <date> <dbl>
## 1 日本 2020-06-27 100
## 2 日本 2020-06-28 93
## 3 日本 2020-06-29 86
## 4 日本 2020-06-30 117
## 5 日本 2020-07-01 130
## 6 韓国 2020-06-27 62
## 7 韓国 2020-06-28 42
## 8 韓国 2020-06-29 43
## 9 韓国 2020-06-30 50
## 10 韓国 2020-07-01 54
## # … with 15 more rows
可視化のコードはとりあえず無視し、グラフを出力してみましょう。
Reorder2_df %>%
ggplot() +
geom_line(aes(x = Date, y = NewPat, color = Country),
size = 1) +
scale_x_date(date_labels = "%Y年%m月%d日") +
labs(x = "年月日", y = "新規感染者数 (人)", color = "") +
theme_gray(base_family = "HiraKakuProN-W3")
このグラフに違和感はあまりありませんが、「読みやすさ」の麺では改善の余地があります。たとえば、7月1日の時点で、新規感染者数が多いのは日本、韓国、香港、中国 (本土)、台湾の順です。しかし、右側の凡例の順番はそうではありません。この順番が一致すれば、更に図は読みやすくなるでしょう。
factor(Reorder2_df$Country)
## [1] 日本 日本 日本 日本 日本 韓国
## [7] 韓国 韓国 韓国 韓国 中国 (本土) 中国 (本土)
## [13] 中国 (本土) 中国 (本土) 中国 (本土) 台湾 台湾 台湾
## [19] 台湾 台湾 香港 香港 香港 香港
## [25] 香港
## Levels: 韓国 香港 台湾 中国 (本土) 日本
実際、何も指定せずにReorder2_df
のCountry
をfactor化すると、韓国、香港、台湾、…の順であり、これは上のグラフと一致します。これをグラフにおける7月1日の新規感染者数の順で並べるためには、Date
を昇順にソートし、そして最後の要素 ("2020/07/01"
)内で新規感染者数 (NewPat
)を降順に並べ替えた場合の順番にする必要があります。実際、Reorder2_df
をDate
で昇順、NewPat
で降順にソートし、最後の5行を抽出した結果が以下のコードです。
Reorder2_df %>%
arrange(Date, desc(NewPat)) %>%
slice_tail(n = 5)
## # A tibble: 5 x 3
## Country Date NewPat
## <chr> <date> <dbl>
## 1 日本 2020-07-01 130
## 2 韓国 2020-07-01 54
## 3 香港 2020-07-01 28
## 4 中国 (本土) 2020-07-01 5
## 5 台湾 2020-07-01 0
このように、水準を調整する際に2つの変数 (Date
とNewPat
)が使用されます。fct_reorder2()
はfct_reorder()
と買い方がほぼ同じですが、基準となる変数がもう一つ加わります。
データ名 %>%
mutate(新しい変数名 = fct_reorder2(元の変数名,
基準となる変数1, 基準となる変数2,
関数名, 関数の引数))
重要なのはここの関数のところですが、fct_reorder2()
はデフォルトでlast2()
という関数が指定されており、まさに私たちに必要な関数です。したがって、ここでは関数名も省略できますが、ここでは一応明記しておきます。
Reorder2_df <- Reorder2_df %>%
mutate(Country2 = fct_reorder2(Country, Date, NewPat, last2))
それでは新しく出来たCountry2
の水準を確認してみましょう。
levels(Reorder2_df$Country2)
## [1] "日本" "韓国" "香港" "中国 (本土)" "台湾"
ちゃんと7月1日の新規感染者数基準で水準の順番が調整されましたので、これを使ってグラフをもう一回作ってみます。
Reorder2_df %>%
ggplot() +
geom_line(aes(x = Date, y = NewPat, color = Country2),
size = 1) +
scale_x_date(date_labels = "%Y年%m月%d日") +
labs(x = "年月日", y = "新規感染者数 (人)", color = "") +
theme_gray(base_family = "HiraKakuProN-W3")
これで図がさらに読みやすくなりました。ちなみに、forcats
パッケージはlast2()
以外にもfirst2()
という関数も提供しております。これを使うと、7月1日でなく、6月27日の新規感染者数の降順で水準の順番が調整されます。他にも引数を2つ使用する自作関数も使えますが、fct_reorder2()
の主な使いみちはlast2()
で十分でしょう。
fct_collapse()
: 水準を統合する
水準数をより水準数に減らすためには、fct_recode()
を使います。先ほど、fct_shift()
で使ったdf4
の例を考えてみましょう。df4
のQ1
の水準数は6つです。
levels(df4$Q1)
## [1] "そう思う" "どちらかと言えばそう思う"
## [3] "どちらとも言えない" "どちらかと言えばそう思わない"
## [5] "そう思わない" "答えたくない"
これを4つに減らして見ましょう。具体的には「そう思う」と「どちらかと言えばそう思う」を「そう思う」に、「そう思わない」と「どちらかと言えばそう思わない」を「そう思わない」に統合します。これをfct_recode()
で処理したのが以下のコードです。
# fct_recode()を使った例
df4 <- df4 %>%
mutate(Q1_R2 = fct_recode(Q1,
そう思う = "そう思う",
そう思う = "どちらかと言えばそう思う",
どちらとも言えない = "どちらとも言えない",
そう思わない = "どちらかと言えばそう思わない",
そう思わない = "そう思わない",
答えたくない = "答えたくない"))
df4
## # A tibble: 10 x 4
## ID Q1 Q1_R Q1_R2
## <int> <fct> <fct> <fct>
## 1 1 そう思う そう思う そう思う
## 2 2 そう思わない そう思わない そう思わない
## 3 3 どちらとも言えない どちらとも言えない どちらとも言えない…
## 4 4 どちらかと言えばそう思う どちらかと言えばそう思う そう思う
## 5 5 答えたくない 答えたくない 答えたくない
## 6 6 どちらかと言えばそう思う どちらかと言えばそう思う そう思う
## 7 7 どちらかと言えばそう思わない… どちらかと言えばそう思わない… そう思わない
## 8 8 答えたくない 答えたくない 答えたくない
## 9 9 そう思わない そう思わない そう思わない
## 10 10 そう思う そう思う そう思う
levels(df4$Q1_R2)
## [1] "そう思う" "どちらとも言えない" "そう思わない"
## [4] "答えたくない"
しかし、水準を統合するに特化したfct_collapse()
を使えばより便利です。使い方は、fct_recode()
に非常に似ているため省略しますが、=
の右側をc()
でまとめることが出来ます。
# fct_collapse()を使った例
df4 <- df4 %>%
mutate(Q1_R3 = fct_collapse(Q1,
そう思う = c("そう思う", "どちらかと言えばそう思う"),
どちらとも言えない = "どちらとも言えない",
そう思わない = c( "どちらかと言えばそう思わない", "そう思わない"),
答えたくない = "答えたくない"))
df4
## # A tibble: 10 x 5
## ID Q1 Q1_R Q1_R2 Q1_R3
## <int> <fct> <fct> <fct> <fct>
## 1 1 そう思う そう思う そう思う そう思う
## 2 2 そう思わない そう思わない そう思わない そう思わない
## 3 3 どちらとも言えない どちらとも言えない どちらとも言えない… どちらとも言えない…
## 4 4 どちらかと言えばそう思う… どちらかと言えばそう思う… そう思う そう思う
## 5 5 答えたくない 答えたくない 答えたくない 答えたくない
## 6 6 どちらかと言えばそう思う… どちらかと言えばそう思う… そう思う そう思う
## 7 7 どちらかと言えばそう思わない… どちらかと言えばそう思わない… そう思わない そう思わない
## 8 8 答えたくない 答えたくない 答えたくない 答えたくない
## 9 9 そう思わない そう思わない そう思わない そう思わない
## 10 10 そう思う そう思う そう思う そう思う
levels(df4$Q1_R3)
## [1] "そう思う" "どちらとも言えない" "そう思わない"
## [4] "答えたくない"
fct_recode()
の結果と同じ結果が得られました。元の水準数や、減らされる水準数などによっては書く手間があまり変わらないので、好きな方を使っても良いでしょう。
fct_drop()
: 使われていない水準を除去する
水準としては存在するものの、データとしては存在しないケースもあります。これをここでは「空水準 (empty levels)」と呼びます。たとえば、以下のコードはPref
をfactor化してからPref == "奈良県"
のケースを落としたものです。
Score_df_f2 <- df %>%
mutate(Pref = fct_inorder(Pref)) %>%
filter(Pref != "奈良県") %>%
group_by(Pref) %>%
summarise(Score = mean(Score, na.rm = TRUE),
.groups = "drop")
Score_df_f2
## # A tibble: 8 x 2
## Pref Score
## <fct> <dbl>
## 1 東京都 3.67
## 2 神奈川県 3.53
## 3 千葉県 3.72
## 4 埼玉県 3.64
## 5 大阪府 3.77
## 6 京都府 3.68
## 7 兵庫県 3.54
## 8 和歌山県 3.97
このように結果としては、奈良県のデータを除外したため空水準である奈良県は表示されませんが、Pref
変数はどうでしょうか。
levels(Score_df_f2$Pref)
## [1] "東京都" "神奈川県" "千葉県" "埼玉県" "大阪府" "京都府" "兵庫県"
## [8] "奈良県" "和歌山県"
このように水準としては残っていることが分かります。使われていない水準が分析や可視化に影響を与えないケースもありますが、与えるケースもあります。これもこれまで勉強してきたfct_*()
関数群で対応可能ですが、fct_drop()
関数を使えば一発で終わります。実際にやってみましょう。
Score_df_f2 <- Score_df_f2 %>%
mutate(Pref = fct_drop(Pref))
levels(Score_df_f2$Pref)
## [1] "東京都" "神奈川県" "千葉県" "埼玉県" "大阪府" "京都府" "兵庫県"
## [8] "和歌山県"
水準から奈良県が消えました。同じ機能をする関数としてはR内蔵関数であるdroplevels()
関数があり、使い方はfct_drop()
と同じです。
fct_expand()
: 水準を追加する
一方、空水準を追加することも可能です。fct_expand()
関数には元の変数名に加え、追加する水準名を入れるだけです。たとえば、df
のPref
の水準は関東と関西の9都府県名となっていますが、ここに"滋賀県"
という水準を追加してみます。。
df5 <- df %>%
mutate(Pref = fct_expand(Pref, "滋賀県"))
levels(df5$Pref)
## [1] "京都府" "埼玉県" "神奈川県" "千葉県" "大阪府" "東京都"
## [7] "奈良県" "兵庫県" "和歌山県" "滋賀県"
"滋賀県"
という新しい水準が出来ましたね。ただし、新しく追加された水準は最後の順番になりますので、修正が必要な場合はfct_relevel()
などを使って適宜修正してください。
新しく水準が追加されることによって、何かの変化はあるでしょうか。まずは都府県ごとにScore
の平均値とケース数を計算してみましょう。
df5 %>%
group_by(Pref) %>%
summarise(Score = mean(Score, na.rm = TRUE),
N = n(),
.groups = "drop")
## # A tibble: 9 x 3
## Pref Score N
## <fct> <dbl> <int>
## 1 京都府 3.68 414
## 2 埼玉県 3.64 1000
## 3 神奈川県 3.53 1000
## 4 千葉県 3.72 1000
## 5 大阪府 3.77 1000
## 6 東京都 3.67 1000
## 7 奈良県 3.85 147
## 8 兵庫県 3.54 591
## 9 和歌山県 3.97 140
見た目は全く変わらず、滋賀県の行が新しく出来たわけでもありません。dplyr
のgroup_by()
の場合、空水準はグループ化の対象になりません。一方、多くのR内蔵関数はケースとして存在しなくても計算の対象となります。たとえば、ベクトル内のある値が何個格納されているか確認するtable()
関数の例を見てみましょう。
table(df5$Pref)
##
## 京都府 埼玉県 神奈川県 千葉県 大阪府 東京都 奈良県 兵庫県
## 414 1000 1000 1000 1000 1000 147 591
## 和歌山県 滋賀県
## 140 0
"滋賀県"
という列があり、合致するケースが0と表示されます。group_by()
でも空の水準まで含めて出力する引数.drop
があります。デフォルトはTRUE
ですが、これをFALSE
に指定してみます。
df5 %>%
group_by(Pref, .drop = FALSE) %>%
summarise(Score = mean(Score, na.rm = TRUE),
N = n(),
.groups = "drop")
## # A tibble: 10 x 3
## Pref Score N
## <fct> <dbl> <int>
## 1 京都府 3.68 414
## 2 埼玉県 3.64 1000
## 3 神奈川県 3.53 1000
## 4 千葉県 3.72 1000
## 5 大阪府 3.77 1000
## 6 東京都 3.67 1000
## 7 奈良県 3.85 147
## 8 兵庫県 3.54 591
## 9 和歌山県 3.97 140
## 10 滋賀県 NaN 0
空水準も出力され、Score
の平均値は計算不可 (NaN
)、ケース数は0という結果が得られました。
fct_explicit_na()
: 欠損値に水準を与える
まずは、実習用データdf6
を作ってみまます。X1
はnumeric型変数ですが、これをfactor化します。最初からtibble()
内でfactor化しておいても問題ありませんが、練習だと思ってください。
df6 <- tibble(
ID = 1:10,
X1 = c(1, 3, 2, NA, 2, 2, 1, NA, 3, NA)
)
df6 <- df6 %>%
mutate(X1 = factor(X1,
levels = c(1, 2, 3),
labels = c("ラーメン", "うどん", "そば")))
df6
## # A tibble: 10 x 2
## ID X1
## <int> <fct>
## 1 1 ラーメン
## 2 2 そば
## 3 3 うどん
## 4 4 <NA>
## 5 5 うどん
## 6 6 うどん
## 7 7 ラーメン
## 8 8 <NA>
## 9 9 そば
## 10 10 <NA>
それではX1
をグループ化変数とし、ケース数を計算してみましょう。
df6 %>%
group_by(X1) %>%
summarise(N = n(),
.groups = "drop")
## # A tibble: 4 x 2
## X1 N
## <fct> <int>
## 1 ラーメン 2
## 2 うどん 3
## 3 そば 2
## 4 <NA> 3
NA
もグループ化の対象となります。以下はこの欠損値も一つの水準として指定する方法について紹介します。欠損値を欠損値のままにするケースが多いですが、欠損値が何らかの意味を持つ場合、分析の対象になります。たとえば、多項ロジスティック回帰の応答変数として「分からない/答えたくない」を含めたり、「分からない/答えたくない」を選択する要因を分析したい場合は、欠損値に値を与える必要があります。なぜなら、一般的な分析において欠損値は分析対象から除外されるからです。
まずは、これまで紹介した関数を使ったやり方から紹介します。
df6 %>%
# まず、X1をcharacter型に変換し、X2という列に保存
mutate(X2 = as.character(X1),
# X2がNAなら"欠損値"、それ以外なら元のX2の値に置換
X2 = ifelse(is.na(X2), "欠損値", X2),
# X2を再度factor化する
X2 = factor(X2,
levels = c("ラーメン", "うどん", "そば", "欠損値")))
## # A tibble: 10 x 3
## ID X1 X2
## <int> <fct> <fct>
## 1 1 ラーメン ラーメン
## 2 2 そば そば
## 3 3 うどん うどん
## 4 4 <NA> 欠損値
## 5 5 うどん うどん
## 6 6 うどん うどん
## 7 7 ラーメン ラーメン
## 8 8 <NA> 欠損値
## 9 9 そば そば
## 10 10 <NA> 欠損値
X1
をcharacter型に戻す理由6は、水準にない値が入るとfactor化が解除されるからです。factor型をcharacter型に戻さずにdf6$X1
のNA
を"欠損値"
に置換すると、以下のようになります。
# df6のX1がNAなら"欠損"、それ以外なら元のX1の値を返す
ifelse(is.na(df6$X1), "欠損値", df6$X1)
## [1] "1" "3" "2" "欠損値" "2" "2" "1" "欠損値"
## [9] "3" "欠損値"
"ラーメン"
と"うどん"
、"そば"
がfactor化前の1, 2, 3に戻っただけでなく、NA
が"欠損値"
というcharacter型に置換されたため、全体がcharacter型に変換されました。このように欠損値に水準を与える作業は難しくはありませんが、面倒な作業です。そこで登場する関数がfct_exlpicit_na()
関数です。使い方は、元の変数に加え、欠損値の水準名を指定するna_level
です。
df6 <- df6 %>%
# na_levelのデフォルト値は"(Missing)"
mutate(X2 = fct_explicit_na(X1, na_level = "欠損値"))
df6
## # A tibble: 10 x 3
## ID X1 X2
## <int> <fct> <fct>
## 1 1 ラーメン ラーメン
## 2 2 そば そば
## 3 3 うどん うどん
## 4 4 <NA> 欠損値
## 5 5 うどん うどん
## 6 6 うどん うどん
## 7 7 ラーメン ラーメン
## 8 8 <NA> 欠損値
## 9 9 そば そば
## 10 10 <NA> 欠損値
欠損値が一つの水準になったことが分かります。
df6 %>%
group_by(X2) %>%
summarise(N = n(),
.groups = "drop")
## # A tibble: 4 x 2
## X2 N
## <fct> <int>
## 1 ラーメン 2
## 2 うどん 3
## 3 そば 2
## 4 欠損値 3
むろん、group_by()
を使ってもちゃんと出力されます。
行単位の操作
ここでは行単位の操作について考えたいと思います。select()
の説明で使ったmyDF1
を見てみましょう。
myDF1
## # A tibble: 5 x 10
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9
## 2 2 4 5 2 5 3 9 0 5 1
## 3 3 6 1 1 6 2 5 3 9 3
## 4 4 2 1 6 0 3 0 0 1 3
## 5 5 7 0 9 2 1 1 2 3 8
ここでX1
とX2
とX3
の平均値を計算し、X_Mean
という名の変数にする場合、以下のような書き方が普通でしょう。
myDF1 %>%
mutate(X_Mean = mean(c(X1, X2, X3)))
## # A tibble: 5 x 11
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D X_Mean
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9 3.13
## 2 2 4 5 2 5 3 9 0 5 1 3.13
## 3 3 6 1 1 6 2 5 3 9 3 3.13
## 4 4 2 1 6 0 3 0 0 1 3 3.13
## 5 5 7 0 9 2 1 1 2 3 8 3.13
あら、なんかおかしくありませんか。1行目の場合、X1
とX2
、X3
それぞれ2、5、3であり、平均値は3.333であるはずなのに3.133になりました。これは2行目以降も同じです。なぜでしょうか。
実はdplyr
は行単位の計算が苦手です。実際、データフレーム (または、tibble)というのは既に説明したとおり、縦ベクトルを横に並べたものです。列をまたがる場合、データ型が異なる場合も多いため、そもそも使う場面も多くありません。したがって、以下のような書き方が必要でした。
myDF1 %>%
mutate(X_Mean = (X1 + X2 + X3) / 3)
## # A tibble: 5 x 11
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D X_Mean
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9 3.33
## 2 2 4 5 2 5 3 9 0 5 1 3
## 3 3 6 1 1 6 2 5 3 9 3 5
## 4 4 2 1 6 0 3 0 0 1 3 0.667
## 5 5 7 0 9 2 1 1 2 3 8 3.67
先ほどのmean(c(X1, X2, X3))
は(X1
列とX2
列、X3
列)の平均値です。X1
は長さ1のベクトルではなく、その列全体を指すものです。つまり、mean(c(X1, X2, X3))
はmean(c(myD1F$X1, myDF1$X2, myDF1$X3))
と同じことになります。だから全て3.133という結果が得られました。ただし、後者はベクトル同士の加減乗除になるため問題ありません。実際c(1, 2, 3) + c(3, 5, 0)
は同じ位置の要素同士の計算になります。
ここでmean()
関数を使う場合には全ての演算を、一行一行に分けて行う必要があります。ある一行のみに限定する場合、mean(c(X1, X2, X3))
のX1
などは長さ1のベクトルになるため、(X1 + X2 + X3) / 3
と同じことになります。この「一行単位で処理を行う」ことを指定する関数がrowwise()
関数です。これは行単位の作業を行う前に指定するだけです。
myDF1 %>%
rowwise() %>%
mutate(X_Mean = mean(c(X1, X2, X3)))
## # A tibble: 5 x 11
## # Rowwise:
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D X_Mean
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9 3.33
## 2 2 4 5 2 5 3 9 0 5 1 3
## 3 3 6 1 1 6 2 5 3 9 3 5
## 4 4 2 1 6 0 3 0 0 1 3 0.667
## 5 5 7 0 9 2 1 1 2 3 8 3.67
これで問題なく行単位の処理ができるようになりました。今回は変数が3つのみだったので、これで問題ありませんが、変数が多くなると:
やstarts_with()
、num_range()
などを使って変数を選択したくなります。この場合は計算する関数内にc_across()
を入れます。ここではX1
列からX3D
列までの平均値を求めてみましょう。
myDF1 %>%
rowwise() %>%
mutate(X_Mean = mean(X1:X3D))
## # A tibble: 5 x 11
## # Rowwise:
## ID X1 Y1 X1D X2 Y2 X2D X3 Y3 X3D X_Mean
## <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 2 3 4 5 3 8 3 1 9 5.5
## 2 2 4 5 2 5 3 9 0 5 1 2.5
## 3 3 6 1 1 6 2 5 3 9 3 4.5
## 4 4 2 1 6 0 3 0 0 1 3 2.5
## 5 5 7 0 9 2 1 1 2 3 8 7.5
実はrowwise()
関数、2020年6月に公開されたdplyr 1.0.0で注目された関数ですが、昔のdplyrにもrowwise()
関数はありました。ただし、purrr
パッケージやtidyr
パッケージのnest()
関数などにより使い道がなくなりましたが、なぜか華麗に復活しました。データ分析に使うデータは基本単位は列であるため、実際にrowwise()
が使われる場面は今の段階では多くないでしょう。また、簡単な作業ならX1 + X2
のような演算でも対応できます。それでも、覚えておけば便利な関数であることには間違いありません。
データの結合
行の結合
まずは、複数のデータフレームまたはtibbleを縦に結合する方法について解説します。イメージとしては図9のようなものです。

Figure 9: 行の結合
行を結合する際にはdplyr
パッケージのbind_rows()
関数を使います。この関数の使い方は以下の通りです。
# 新しいデータ名ではなく、既にあるデータ名にすると上書きとなる
新しいデータ名 <- bind_rows(データ1, データ2, ...)
それでは早速実際に使ってみましょう。実習のために、4つのtibbleを作成します (tibbleでなくデータフレームでも問題ありません)。
# tibble()の代わりにdata.frame()も可
rbind_df1 <- tibble(X1 = 1:3,
X2 = c("A", "B", "C"),
X3 = c(T, T, F)) # TRUEとFALSEはTはFと省略可能
rbind_df2 <- tibble(X1 = 4:6,
X2 = c("D", "E", "F"),
X3 = c(F, T, F))
rbind_df3 <- tibble(X1 = 7:9,
X3 = c(T, T, T),
X2 = c("G", "H", "I"))
rbind_df4 <- tibble(X1 = 10:12,
X2 = c("J", "K", "L"),
X5 = c("Song", "Yanai", "Hadley"))
rbind_df1 # rbind_df1を出力
## # A tibble: 3 x 3
## X1 X2 X3
## <int> <chr> <lgl>
## 1 1 A TRUE
## 2 2 B TRUE
## 3 3 C FALSE
rbind_df2 # rbind_df2を出力
## # A tibble: 3 x 3
## X1 X2 X3
## <int> <chr> <lgl>
## 1 4 D FALSE
## 2 5 E TRUE
## 3 6 F FALSE
rbind_df3 # rbind_df3を出力
## # A tibble: 3 x 3
## X1 X3 X2
## <int> <lgl> <chr>
## 1 7 TRUE G
## 2 8 TRUE H
## 3 9 TRUE I
rbind_df4 # rbind_df4を出力
## # A tibble: 3 x 3
## X1 X2 X5
## <int> <chr> <chr>
## 1 10 J Song
## 2 11 K Yanai
## 3 12 L Hadley
まずは、rbind_df1
とrbind_df2
を結合してみます。この2つのデータは同じ変数が同じ順番で並んでいますね。
Binded_df1 <- bind_rows(rbind_df1, rbind_df2)
Binded_df1
## # A tibble: 6 x 3
## X1 X2 X3
## <int> <chr> <lgl>
## 1 1 A TRUE
## 2 2 B TRUE
## 3 3 C FALSE
## 4 4 D FALSE
## 5 5 E TRUE
## 6 6 F FALSE
2つのデータが結合されたことが確認できます。それではrbind_df1
とrbind_df2
、rbind_df3
はどうでしょうか。確かに3つのデータは同じ変数を持ちますが、rbind_df3
は変数の順番がX1
、X3
、X2
になっています。このまま結合するとエラーが出るでしょうか。とりあえず、やってみます。
Binded_df2 <- bind_rows(rbind_df1, rbind_df2, rbind_df3)
Binded_df2
## # A tibble: 9 x 3
## X1 X2 X3
## <int> <chr> <lgl>
## 1 1 A TRUE
## 2 2 B TRUE
## 3 3 C FALSE
## 4 4 D FALSE
## 5 5 E TRUE
## 6 6 F FALSE
## 7 7 G TRUE
## 8 8 H TRUE
## 9 9 I TRUE
このように変数の順番が異なっても、先に指定したデータの変数順で問題なく結合できました。これまでの作業はdplyr
パッケージのbind_rows()
を使わずに、R内蔵関数のrbind()
でも同じやり方でできます。bind_rows()
の特徴は、変数名が一致しない場合、つまり今回の例だとrbind_df4
が含まれる場合です。rbind_df1
からrbind_df3
までは順番が違ってもX1
、X2
、X3
変数で構成されていました。一方、rbind_dr4
にはX3
がなく、新たにX4
という変数があります。これをrbind()
関数で結合するとエラーが出力されます。
# rbind()を使う場合
rbind(rbind_df1, rbind_df2, rbind_df3, rbind_df4)
## Error in match.names(clabs, names(xi)): 名前が以前の名前と一致しません
一方、bind_rows()
はどうでしょうか。
Binded_df3 <- bind_rows(rbind_df1, rbind_df2, rbind_df3, rbind_df4)
Binded_df3
## # A tibble: 12 x 4
## X1 X2 X3 X5
## <int> <chr> <lgl> <chr>
## 1 1 A TRUE <NA>
## 2 2 B TRUE <NA>
## 3 3 C FALSE <NA>
## 4 4 D FALSE <NA>
## 5 5 E TRUE <NA>
## 6 6 F FALSE <NA>
## 7 7 G TRUE <NA>
## 8 8 H TRUE <NA>
## 9 9 I TRUE <NA>
## 10 10 J NA Song
## 11 11 K NA Yanai
## 12 12 L NA Hadley
X1
からX4
まで全ての列が生成され、元のデータにはなかった列に関してはNA
で埋められています。
ならば、bind_rows()
の完全勝利かというと、そうとは限りません。自分で架空した複数のデータフレーム、またはtibbleを結合する際、「このデータは全て同じ変数を持っているはず」と事前に分かっているならrbind()
の方が効果的です。なぜなら、変数名が異なる場合、エラーが出力されるからです。bind_rows()
を使うと、コーディングミスなどにより、列名の相違がある場合でも結合してくれてしまうので、分析の結果を歪ませる可能性があります。
列の結合
実はデータ分析においてデータの結合といえば、列の結合が一般的です。これは図10のような操作を意味します。

Figure 10: 列の結合
まずは、本章で作成したdf2
をもう一回作ってみます。
df2 <- df %>%
group_by(Pref) %>%
summarise(Budget_Mean = mean(Budget, na.rm = TRUE),
ScoreN_Sum = sum(ScoreN, na.rm = TRUE),
Score_Mean = mean(Score, na.rm = TRUE),
N = n(),
.groups = "drop")
df2
## # A tibble: 9 x 5
## Pref Budget_Mean ScoreN_Sum Score_Mean N
## <chr> <dbl> <dbl> <dbl> <int>
## 1 京都府 1399. 216 3.68 414
## 2 埼玉県 1147. 278 3.64 1000
## 3 神奈川県 1239. 587 3.53 1000
## 4 千葉県 1124. 259 3.72 1000
## 5 大阪府 1203. 516 3.77 1000
## 6 東京都 1283. 1165 3.67 1000
## 7 奈良県 1169. 45 3.85 147
## 8 兵庫県 1197. 230 3.54 591
## 9 和歌山県 1252 83 3.97 140
ラーメン屋の店舗ですが、たしかにデータには埼玉、東京、大阪などは1000店舗しか入っておりません。実はもっと多いですが、ぐるなびAPIの仕様上、最大1000店舗しか情報取得が出来ないからです。ここに実際の店舗数が入っている新しいデータセット、Ramen2.csvがあります。これを読み込み、df3
という名で格納しましょう。
# データのパスは適宜修正すること
df3 <- read_csv("Data/Ramen2.csv")
## Parsed with column specification:
## cols(
## Pref = col_character(),
## Pop = col_number(),
## Area = col_number(),
## RamenN = col_double(),
## Turnout = col_double(),
## LDP = col_double(),
## CDP = col_double(),
## DPFP = col_double(),
## Komei = col_double(),
## JIP = col_double(),
## JCP = col_double(),
## SDP = col_double(),
## Reiwa = col_double(),
## NHK = col_double(),
## HRP = col_double()
## )
df3
## # A tibble: 47 x 15
## Pref Pop Area RamenN Turnout LDP CDP DPFP Komei JIP JCP SDP
## <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 北海道… 5.38e6 83424. 1454 53.8 32.3 20.8 6.65 11.7 7.78 11.6 1.31
## 2 青森県… 1.31e6 9646. 336 42.9 39.8 22.0 7.24 11.3 3.4 8.31 2.36
## 3 岩手県… 1.28e6 15275. 285 56.5 35.5 17.8 12.5 8.22 4.36 10.4 3.83
## 4 宮城県… 2.33e6 7282. 557 51.2 39.6 17.8 9.02 11.1 4.6 7.89 2.1
## 5 秋田県… 1.02e6 11638. 301 56.3 44.5 13.5 8.64 10.6 4.48 8.09 3.77
## 6 山形県… 1.12e6 9323. 512 60.7 45.2 14.9 7.37 9.87 4.28 6.51 5.08
## 7 福島県… 1.91e6 13784. 550 52.4 38.2 13.6 12.1 12.8 5.31 7.99 3.01
## 8 茨城県… 2.92e6 6097. 663 45.0 39.3 15.2 7.15 15.1 6.73 7.73 1.46
## 9 栃木県… 1.97e6 6408. 595 44.1 40.3 18.9 9.94 12.8 4.9 5.04 1.03
## 10 群馬県… 1.97e6 6362. 488 48.2 40.6 16.4 9.76 12.4 4.67 7.58 1.87
## # … with 37 more rows, and 3 more variables: Reiwa <dbl>, NHK <dbl>, HRP <dbl>
変数名 | 説明 |
---|---|
Pref
|
都道府県名 |
Pop
|
日本人人口 (2015年国勢調査) |
Area
|
面積 (2015年国勢調査) |
RamenN
|
ぐるなびに登録されたラーメン屋の店舗数 |
Turnout
|
2019年参院選: 投票率 (比例) |
LDP
|
2019年参院選: 自民党の得票率 (比例) |
CDP
|
2019年参院選: 立憲民主党の得票率 (比例) |
DPFP
|
2019年参院選: 国民民主党の得票率 (比例) |
Komei
|
2019年参院選: 公明党の得票率 (比例) |
JIP
|
2019年参院選: 日本維新の会の得票率 (比例) |
JCP
|
2019年参院選: 日本共産党の得票率 (比例) |
SDP
|
2019年参院選: 社会民主党の得票率 (比例) |
Reiwa
|
2019年参院選: れいわ新選組の得票率 (比例) |
NHK
|
2019年参院選: NHKから国民を守る党の得票率 (比例) |
HRP
|
2019年参院選: 幸福実現党の得票率 (比例) |
本データは都道府県ごとの人口、面積、ぐるなびに登録されたラーメン屋の店舗数、2019年参議院議員通常選挙の結果が格納されています。人口と面積は2015年国勢調査、ぐるなびの情報は2020年6月時点での情報です。
df2
にデータ上の店舗数ではなく、実際の店舗数を新しい列として追加したい場合はどうすれば良いでしょうか。簡単な方法としてはdf3
から情報を取得し、それを自分で入れる方法です。
df3 %>%
# df2のPrefベクトルの要素と一致するものに絞る
filter(Pref %in% df2$Pref) %>%
# 都道府県名とラーメン屋の店舗数のみ抽出
select(Pref, RamenN)
## # A tibble: 9 x 2
## Pref RamenN
## <chr> <dbl>
## 1 埼玉県 1106
## 2 千葉県 1098
## 3 東京都 3220
## 4 神奈川県 1254
## 5 京都府 415
## 6 大阪府 1325
## 7 兵庫県 591
## 8 奈良県 147
## 9 和歌山県 140
そして、この情報をdf2$RamenN <- c(415, 1106, 1254, ...)
のように追加すればいいですね。
しかし、このような方法は非効率的です。そもそもdf3
から得られた結果の順番とdf2
の順番も一致しないので、一々対照しながらベクトルを作ることになります。ここで登場する関数がdplyr
の*_join()
関数群です。この関数群には4つの関数が含まれており、以下のような使い方になります。
# 新しいデータ名ではなく、データ1またはデータ2の名前に格納すると上書きとなる
# 1. データ1を基準に結合
新しいデータ名 <- left_join(データ1, データ2, by = "共通変数名")
# 2. データ2を基準に結合
新しいデータ名 <- right_join(データ1, データ2, by = "共通変数名")
# 3. データ1とデータ2両方に共通するケースのみ結合
新しいデータ名 <- inner_join(データ1, データ2, by = "共通変数名")
# 4. データ1とデータ2、どれかに存在するケースを結合
新しいデータ名 <- full_join(データ1, データ2, by = "共通変数名")
4つの関数の違いについて説明する前に、by
引数について話したいと思います。これは主にキー (key)変数と呼ばれる変数で、それぞれのデータに同じ名前の変数がある必要があります。df2
とdf3
だとそれがPref
変数です。どの*_join()
関数でも、Pref
の値が同じもの同士を結合することになります。
データのキー変数名が異なる場合もあります。たとえば、データ1の都道府県名はPref
という列に、データ2の都道府県名はPrefecture
という列になっている場合、by = "Pref"
でなく、by = c("データ1のキー変数名" = "データ2のキー変数名")
、つまり、by = c("Pref" = "Prefecture")
と指定します。
それでは、df3
から都道府県名とラーメン屋の店舗数だけ抽出し、df4
として格納しておきます。
df4 <- df3 %>%
select(Pref, RamenN)
df4
## # A tibble: 47 x 2
## Pref RamenN
## <chr> <dbl>
## 1 北海道 1454
## 2 青森県 336
## 3 岩手県 285
## 4 宮城県 557
## 5 秋田県 301
## 6 山形県 512
## 7 福島県 550
## 8 茨城県 663
## 9 栃木県 595
## 10 群馬県 488
## # … with 37 more rows
これから共通変数名の値をキー (key)と呼びます。今回の例だとPref
がdf2
とdf4
のキー変数であり、その値である"東京都"
、"北海道"
などがキーです。
まずは、inner_join()
の仕組みについて考えます。これはdf2
とdf4
に共通するキーを持つケースのみ結合する関数です。df4
には"北海道"
というキーがありますが、df2
にはありません。したがって、キーが"北海道"
のケースは結合から除外されます。これをイメージにしたものが図11です7。それぞれ3 \(\times\) 2 (3行2列)のデータですが、キーが一致するケースは2つしかないため、結合後のデータは3 \(\times\) 2となります。

Figure 11: inner_join()
の仕組み
実際にやってみましょう。
inner_join(df2, df4, by = "Pref")
## # A tibble: 9 x 6
## Pref Budget_Mean ScoreN_Sum Score_Mean N RamenN
## <chr> <dbl> <dbl> <dbl> <int> <dbl>
## 1 京都府 1399. 216 3.68 414 415
## 2 埼玉県 1147. 278 3.64 1000 1106
## 3 神奈川県 1239. 587 3.53 1000 1254
## 4 千葉県 1124. 259 3.72 1000 1098
## 5 大阪府 1203. 516 3.77 1000 1325
## 6 東京都 1283. 1165 3.67 1000 3220
## 7 奈良県 1169. 45 3.85 147 147
## 8 兵庫県 1197. 230 3.54 591 591
## 9 和歌山県 1252 83 3.97 140 140
共通するキーは9つのみであり、結果として返されたデータの大きさも9 \(\times\) 6です。df2
に足されたdf4
は2列のデータですが、キー変数であるPref
は共通するため、1列のみ足されました。キー変数を両方残す場合はkeep = TRUE
引数を追加してください。
一方、full_join()
は、すべてのキーに対して結合を行います (図12)。たとえば、df2
には"北海道"
というキーがありません。それでも新しく出来上がるデータには北海道の列が追加されます。ただし、道内店舗の平均予算、口コミ数などの情報はないため、欠損値が代入されます。

Figure 12: full_join()
の仕組み
それでは実際、結果を確認してみましょう。今回は結合後、RamenN
が大きい順で出力します。
full_join(df2, df4, by = "Pref") %>%
arrange(desc(RamenN)) # ぐるなびに登録された店舗の多い都道府県から出力
## # A tibble: 47 x 6
## Pref Budget_Mean ScoreN_Sum Score_Mean N RamenN
## <chr> <dbl> <dbl> <dbl> <int> <dbl>
## 1 東京都 1283. 1165 3.67 1000 3220
## 2 北海道 NA NA NA NA 1454
## 3 大阪府 1203. 516 3.77 1000 1325
## 4 愛知県 NA NA NA NA 1255
## 5 神奈川県 1239. 587 3.53 1000 1254
## 6 埼玉県 1147. 278 3.64 1000 1106
## 7 千葉県 1124. 259 3.72 1000 1098
## 8 福岡県 NA NA NA NA 985
## 9 新潟県 NA NA NA NA 705
## 10 静岡県 NA NA NA NA 679
## # … with 37 more rows
df2
にはなかった北海道や愛知県などの行ができました。そして、df2
にはない情報はすべて欠損値 (NA
)となりました。
続いて、left_join()
ですが、これは先に指定したデータに存在するキーのみで結合を行います (図13)。今回はdf2
が先に指定されていますが、df2
のキーはdf4
のキーの部分集合であるため、inner_join()
と同じ結果が得られます。

Figure 13: left_join()
の仕組み
一方、right_join()
はleft_join()
と逆の関数であり、後に指定したデータに存在するキーを基準に結合を行います (図14)。後に指定されたdf4
のキーはdf2
のキーを完全に含むので、full_join()
と同じ結果が得られます。

Figure 14: right_join()
の仕組み
これからはdf2
とdf4
を結合することになりますが、この2つのtibbleの大きさが異なります。df2
は9つの都府県のみであるに対し、df4
は47都道府県全てのデータが入っているからです。
ここまではキー変数が一つである場合についてのみ考えましたが、複数のキー変数が必要な場合もあります。たとえば、市区町村の人口・面積データと市区町村の投票率データを結合するとします。各自治体に与えられている「全国地方公共団体コード」が両データに含まれている場合は、このコードをキー変数として使えば問題ありませんが、市区町村名をキー変数として使わざる得ないケースもあるでしょう。しかし、キー変数が複数ある場合もあります。たとえば、府中市は東京都と広島県にありますし、太子町は大阪府と兵庫県にあります。この場合、市区町村名のみでケースをマッチングすると、重複されてマッチングされる恐れがあります。この場合はキー変数を増やすことで対処できます。たとえば、同じ都道府県なら同じ市区町村は存在しないでしょう8。キー変数を複数指定する方法は簡単です。たとえば、市区町村名変数がMunip
、都道府県名変数がPref
ならby = c("Munip", "Pref")
と指定するだけです。
最後に、キー変数以外の変数名が重複する場合について考えましょう。これはパネルデータを結合する時によく直面する問題です。同じ回答者に2回の調査を行った場合、回答者のIDでデータを結合することになります。ただし、それぞれのデータにおいて回答者の性別に関する変数がF1
という名前の場合、どうなるでしょうか。同じデータの同じ名前の変数が複数あると、非常に扱いにくくなります。実際の結果を見てみましょう。
Wave1_df <- tibble(ID = c(1, 2, 3, 4, 5),
F1 = c(1, 1, 0, 0, 1),
F2 = c(18, 77, 37, 50, 41),
Q1 = c(1, 5, 2, 2, 3))
Wave2_df <- tibble(ID = c(1, 3, 4, 6, 7),
F1 = c(1, 0, 0, 0, 1),
F2 = c(18, 37, 50, 20, 62),
Q1 = c(1, 2, 2, 5, 4))
full_join(Wave1_df, Wave2_df, by = "ID")
## # A tibble: 7 x 7
## ID F1.x F2.x Q1.x F1.y F2.y Q1.y
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 1 18 1 1 18 1
## 2 2 1 77 5 NA NA NA
## 3 3 0 37 2 0 37 2
## 4 4 0 50 2 0 50 2
## 5 5 1 41 3 NA NA NA
## 6 6 NA NA NA 0 20 5
## 7 7 NA NA NA 1 62 4
それぞれの変数名の後に.x
と.y
が付きます。この接尾辞 (suffix)はsuffix
引数を指定することで、分析側からカスタマイズ可能です。たとえば、接尾辞を_W1
、_W2
にしたい場合は
full_join(Wave1_df, Wave2_df, by = "ID", suffix = c("_W1", "_W2"))
## # A tibble: 7 x 7
## ID F1_W1 F2_W1 Q1_W1 F1_W2 F2_W2 Q1_W2
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 1 18 1 1 18 1
## 2 2 1 77 5 NA NA NA
## 3 3 0 37 2 0 37 2
## 4 4 0 50 2 0 50 2
## 5 5 1 41 3 NA NA NA
## 6 6 NA NA NA 0 20 5
## 7 7 NA NA NA 1 62 4
のように、データ1とデータ2それぞれの接尾辞を指定するだけです。
実は
select(starts_with("X"), -ends_with("D"), ID)
のように順番を変えるとID
は最後の列になりますが、とりあえず残ります。なぜなら、select()
関数は左側から右側の方へコードを実行するからです。↩︎実は
select.df[, c(2, 8, 9)]
でも前後にパイプ演算子を使うことは可能ですが、コードが読みにくくなるため、推奨しません。↩︎サービスによってはこの機能が有料になっていたりもしますね。↩︎
たとえば、データ内に「ラーメンショップ」という店舗は3店舗あり、この場合、長さ3のベクトルが返されます。↩︎
character型でなく、numeric型でも出来ます。↩︎
これらの図はGarrett Grolemund and Hadley Wickham. 2017. R for Data Science: Import, Tidy, Transform, Visualize, and Model Data. O’Reilly.を参考にしました。↩︎
行政区も含むなら多くの政令指定都市にある「南区」とか「北区」が重複しますが、ここでは考えないことにしましょう。↩︎