例として以下のような動物の例題が与えられているとする。
| 例題 |
食性(a1 ) |
発生形態(a2 ) |
体温(a3 ) |
分類 |
| 例題1(ペンギン) |
肉食 |
卵生 |
恒温 |
鳥類 |
| 例題2(ライオン) |
肉食 |
胎生 |
恒温 |
哺乳類 |
| 例題3(ウシ) |
草食 |
胎生 |
恒温 |
哺乳類 |
| 例題4(トカゲ) |
肉食 |
卵生 |
変温 |
爬虫類 |
| 例題5(ブンチョウ) |
草食 |
卵生 |
恒温 |
鳥類 |
ここから、ID3を用いて食性、発生形態、体温から分類を決定する場合を考える。
ID3 における log の底は基本的に何でも良いが、出力が哺乳類、爬虫類、鳥類の三種類であるので平均情報量の最大値が 1.0 最小値が 0.0 になるように、ここでは 3 を底にしておく。
全体の平均情報量を計算すると、この例題での出力は哺乳類 = 2、爬虫類 = 1、鳥類 = 2 であるから、

となる、まず独立変数として食性(a1 )を取り上げる。この変数は「草食」と「肉食」の二つの値を取りうるから、まず例題集合を以下の2つに分ける。
例題1, 例題2, 例題4
(食性=肉食)のクラス。
例題3, 例題5
(食性=草食)のクラス。
分割した C11 と C12 から平均情報量を求めると C11 の出力は哺乳類 = 1、爬虫類 = 1、鳥類 = 1 であるから、

同様にC12 の出力は哺乳類 = 1、爬虫類 = 0、鳥類 = 1 であるから、

よって平均情報量の期待値 M1 は

同様にして、発生形態(a2 )、体温(a3 )から M2、M3 を計算すると、


となり、最大値は M2 である。よってノードのラベルは発生形態(a2 )になる。
以上の操作を再帰的に繰り返すと以下のような決定木が出力される。
このとき入力変数は食性、発生形態、体温の3種類が存在していたが、出力される決定木では発生形態と体温の2種類しか使われていない。このように ID3 はその学習の過程で余分な変数を削除し最低限の仮説によって例題との関連性を学習する。