今まで、図形描画に関するアルゴリズムをいくつか紹介してきましたが、今回はグラフィック関係から離れてソート(並び替え)のアルゴリズムを紹介したいと思います。
ソートは処理方法によってその実行時間が大きく変わるため、そのアルゴリズムについてはかなり古くから研究されてきたようで、すでに有名なものがたくさん存在しています。そのような中から、この章では比較的単純で実装が簡単なかわりに処理時間は長いアルゴリズムを紹介します。
データ列の二つの要素を比較・交換しながら並べ替える手法を総称して「交換ソート(Echange Sort)」といいます。最も基本的なアルゴリズムは「バブル・ソート(Bubble Sort)」と呼ばれるもので、遅いアルゴリズムとして有名です。しかし遅いと言っても、100 個程度のデータ列をソートするくらいなら充分実用的なものですし、単純なアルゴリズムなので実装も簡単です。
処理の流れとしては次のようになります。
ここまでを一回の"パス"とします。この時点では、配列の末尾にある要素は配列の最大値(降順の場合は最小値)となるので、次は末尾の要素を除いたデータ列について同様の操作を行います。以下、要素を末尾側から一つずつ減らしながら繰り返し比較・交換作業を行い、データ列の要素が一つになった時点でソートが完了することになります。
昇順でソートした場合の最初の"パス"の流れを例を使って示すと下図のようになります。下線の要素が比較対象で、太字は交換されたことを表しています。
|
以下、操作を繰り返すと上のデータ列は次のようにソートされていきます。例を見ると、ソートされた値が泡のようにデータ列の末尾へ浮かんでくるように見えるので、「バブル・ソート」と名づけられたようです。
|
バブル・ソートを用いたソート・ルーチンのサンプル・プログラムを以下に示します。
/* ランダム・アクセス反復子用 要素交換 Ran r1, r2 : 要素交換対象の反復子 */ template<class Ran> inline void swap( Ran r1, Ran r2 ) { typename Ran::value_type i = *r1; *r1 = *r2; *r2 = i; } /* BubbleSort : バブル・ソートによるソート・ルーチン Ran first, last : ランダム・アクセス反復子(ソート開始と末尾の次) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void BubbleSort( Ran first, Ran last, Less less ) { for ( Ran e = last ; e > first ; --e ) for ( Ran s = first + 1 ; s < e ; ++s ) if ( less( *s, *( s - 1 ) ) ) swap( s - 1, s ); } /* BubbleSort : バブル・ソートによるソート・ルーチン 比較用関数オブジェクトとして less を利用する Ran first, last : ランダム・アクセス反復子(ソート開始と終了) */ template<class Ran> void BubbleSort( Ran first, Ran last ) { typedef typename Ran::value_type value_type; BubbleSort( first, last, std::less<value_type>() ); }
ソート・ルーチンの引数は、STL(Standard Template Library) にある関数 sort() と合わせてあります。データ型が可変となるようテンプレートを使い、Ran はランダム・アクセス反復子(Random Access Iterator)を、Less は比較用関数オブジェクトをそれぞれ表します。反復子は、C 言語においてループ処理で用いるポインタを抽象化した概念で、次のような種類があります。
分類(略語) | 出力(Out) | 入力(In) | 前方(For) | 双方向(Bi) | ランダム・アクセス(Ran) |
---|---|---|---|---|---|
読み出し(x = *p) | 不可 | 可 | 可 | 可 | 可 |
要素内へのアクセス(p->x) | 不可 | 可 | 可 | 可 | 可 (p[]も) |
書き込み(*p = x) | 可 | 不可 | 可 | 可 | 可 |
反復 | ++ | ++ | ++ | ++,-- | ++,--,+,-,+=,-= |
反復子の比較 | 不可 | ==,!= | ==,!= | ==,!= | ==,!=,<,>,<=,>= |
反復子の中で最も多くの演算子をサポートしているのが「ランダム・アクセス反復子」です。反復子 p の指し示す要素は *p を使って読み書きすることが可能で、p->x とすれば p の指し示すオブジェクトの x というメンバ変数やメンバ関数へ間接参照することもできます。ランダム・アクセス反復子はさらに p[i] を使って p から i 番目にある要素へアクセスすることも可能です。また、通常の反復子が次の(または前の)要素へ一つずつ移動させる手段しかないのに対して、ランダム・アクセス反復子は任意の位置にある要素の参照へ移動する手段を持ち、さらに反復子どうしの位置関係を調べるときに大小関係を含めた確認もできます(通常の反復子はせいぜい同値であるかを確認することしかできません)。
ランダム・アクセス反復子が利用できるコンテナ・クラスとしては、vector、deque や通常の配列などが挙げられます。また、文字列を扱うときに利用する string クラスも、文字列内の文字にアクセスするためにランダム・アクセス反復子を使うことができます。
ソート・ルーチンには、ソート対象のデータ列に対して開始と末尾の次の要素を示す反復子を渡します。末尾ではなくその次の要素に対する反復子であることに注意してください。これは STL の方式に合わせるためである他に、データ列全体に対してソートする場合は begin() と end() の二つのメンバ関数をそのまま利用すれば済むようにできるからです。
比較用関数オブジェクト Less には、bool を戻り値とする二項叙述関数(引数を二つ持つ関数)を定義する必要があります。二項叙述関数を持つ関数オブジェクトを定義するための規定クラスとしては binary_function が STL に用意されています。また、以下に示すような要素比較用の汎用関数オブジェクト less も binary_function の派生クラスとして STL にて定義されています。
template<class T> struct less : public std::binary_function<T,T,bool> { bool operator()( const T& t1, const T& t2 ) const { return( t1 < t2 ); } };
比較対象要素が演算子 < をサポートしている場合、あらかじめ用意された less オブジェクトを利用することができます。しかし、t1 < t2 の形で大小比較をすることができない要素を並べ替えたい場合(例えば、vector オブジェクトが要素となっている場合など)や、特殊な比較手段を用いたい場合(例えば文字列を、大文字・小文字は区別せずに比較したい時など)は、専用の比較用関数オブジェクトを用意してそれを呼び出すようにする必要があります。このとき、BubbleSort の中で operator() を呼び出していることからわかるように利用する関数オブジェクトは必ず operator() を必要とします。サンプル・プログラムの中では、比較用関数オブジェクトとして less をデフォルトで呼び出す形のルーチンも用意してあります。こちらは二つの反復子だけを渡すだけで利用することができます。
例として、データを逆順に並べ替える場合の実装方法を紹介します。この場合、t1 > t2 ならば true を返す関数オブジェクトを用意すればいいので、それを more クラスとして
template<class T> struct more : public std::binary_function<T,T,bool> { bool operator()( const T& t1, const T& t2 ) const { return( t1 > t2 ); } };
と定義します。あとは、
vector<unsigned int> data;
// データ列の作成
:
BubbleSort( data.begin(), data.end(), more<unsigned int>() )
と実装すれば、逆順でのソートが可能になります。
n 個のデータ列をバブル・ソートを使って並べ替えた場合、要素を比較する回数は 1 から n - 1 までの和、即ち n( n - 1 ) / 2 になります。また、要素交換は大小関係が逆転している場合のみ発生するため、もしすでにソートされた状態であれば回数はゼロになりますが、逆順にソートされていれば比較回数と等しくなります。これは、バブルソートの処理速度がデータ列の要素数の二乗にほぼ比例することを意味しています。よって要素数が二倍になれば、処理速度は最大約 4 倍になります。
ところで、上にあげた例では計 7 パスで処理が完了していますが、データ列を見るとすでに 5 パス目で正しくソートされた状態になっています。このように、実際には途中で処理が完了する場合があるため、これを早めに検知できれば無駄な処理を省いて実行時間を短縮させることができます。
さらに、最後に交換が行われた位置を同時に記憶しておくことで、無駄な処理の省略が可能となります。というのも、最後に交換された位置より末尾側のデータ列はすでにソートされた状態であるため、比較・交換作業を行う必要がないからです。
この手法を用いてソート処理してみた場合の例を以下に示します。
|
上の例では、通常 7 パスの処理を必要としていたのに対して 2 パスで処理が完了しています。
この処理を加えた場合のコーディング例を以下に示します。
/* BubbleSort2 : バブル・ソートによるソート・ルーチン(改良版) Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void BubbleSort2( Ran first, Ran last, Less less ) { // 最後に要素を交換した位置(後ろ側を指す) Ran sorted; for ( Ran e = last ; e > first ; e = sorted ) { sorted = first; // 先頭の位置で sorted を初期化 for ( Ran s = first + 1 ; s < e ; ++s ) { if ( less( *s, *(s - 1) ) ) { swap( s - 1, s ); sorted = s; } } // 一度も交換がなければ終了 if ( sorted == first ) break; } }
この改良は、処理時間がデータ列の内容に大きく左右されてしまいます。極端な話、すでにソートされたデータに対して両者を比較した場合、後者の改良版の方が圧倒的に処理時間は短く、逆に降順でソートされたデータ列では両者のパスの回数は変わらないので、余計な処理が入っているだけ改良版の方が遅くなってしまいます。
バブル・ソートはアルゴリズム上の偏りがあり、比較・交換処理の進む方向によっても処理時間が左右されます。例えば
|
のようなデータ列を「改良版バブル・ソート」ルーチンでソートした場合、配列の先頭から始める場合は 1 パス目でソートが完了し、2 パス目でソートが完了していることを確認してループを抜けるから、計 2 パスで処理が終わりますが、配列の末尾から比較・交換処理を始め、最小値が配列の先頭に浮き上がるようにした場合、5 パス分の処理が必要になります。逆に
|
では、配列の先頭から処理を始める場合は 5 パス分、配列の末尾からの場合は 2 パス分となります。
そこで、一回のパスごとに処理の方向を切り替えてこの偏りをなくせば、平均的な性能は今より向上するのではないかと考えられます。
この発想のもとに生まれたバブル・ソートの変形版を「シェーカー・ソート(Cocktail Shaker Sort)」といいます。以下にサンプル・プログラムを示します。
/* ShakerSort : シェーカー・ソートによるソート・ルーチン Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void ShakerSort( Ran first, Ran last, Less less ) { --last; Ran sorted; // 最後に要素を交換した位置 Ran s = first; // 開始位置で s を初期化 Ran e = sorted = last; // 末尾位置で e と sorted を初期化 while ( e > s ) { /* 配列先頭からバブル・ソート */ for ( Ran r = s ; r < e ; ++r ) { if ( less( *(r + 1), *r ) ) { swap( r, r + 1 ); sorted = r; } } if ( sorted == s ) break; else e = sorted; /* 配列末尾からバブル・ソート */ for ( Ran r = e ; r > s ; --r ) { if ( less( *r, *(r - 1) ) ) { swap( r - 1, r ); sorted = r; } } if ( sorted == e ) break; else s = sorted; } }
改良版バブル・ソートを、先頭から末尾への方向と末尾から先頭への方向に交互に繰り返しているだけの処理なので、難しいところはないと思います。
交換ソートには他に「奇偶転置ソート(Odd-even Transpotation Sort)」というものがあります。バブル・ソートやシェーカー・ソートが比較・交換処理を一方向または双方向に順次行うのに対して、奇偶転置ソートは奇数・偶数の添字を持つ隣りあった要素をペアとして比較・交換処理を行います。以下に例を示します。
|
最初は一番目と二番目、三番目と四番目、という形でペアを作り、それぞれで比較・交換処理を行い、次に二番目と三番目、四番目と五番目、という形で同じように処理を行います。これを繰り返すと、だんだんとソートされていく様子がこの例からも分かります。交換したペアが一つもなくなれば、全ての値がソートされたことになり処理は完了です。
以下に、奇偶転置ソートのサンプル・プログラムを示します。
/* OddEvenSort : 奇偶転置ソートによるソート・ルーチン Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void OddEvenSort( Ran first, Ran last, Less less ) { bool sorted = false; // ソートが完了したか while ( ! sorted ) { sorted = true; /* 偶・奇ペアでのソート */ for ( Ran r = first + 1 ; r < last ; r += 2 ) { if ( less( *r, *(r - 1) ) ) { swap( r - 1, r ); sorted = false; } } /* 奇・偶ペアでのソート */ for ( Ran r = first + 2 ; r < last ; r += 2 ) { if ( less( *r, *(r - 1) ) ) { swap( r - 1, r ); sorted = false; } } } }
奇偶転置ソートの場合、N 個ある要素を偶奇または奇偶ペアで比較・交換するのに約 N / 2 回の処理が行われます。これを一パスとしたとき、パスの数が最も多くなるのは逆順で並んだデータ列を並べ替える場合で N なので、処理回数は最悪の場合、約 N2 / 2 程度となり、バブル・ソートと変わりません。奇偶転置ソートの利点は、要素を比較・交換するペアは一つのパスの中で独立なので並列処理が実現可能である点になります。
最後に紹介する交換ソートは「ノーム・ソート(Gnome Sort)」です。ノーム・ソートの処理の流れは次のようになります。
以下に例を示します。
|
交換処理を行ったとき、それによって大小関係が崩れる可能性があるのは、交換したペアの前側とその直前の要素か、ペアの後ろ側とその直後の要素のいずれかになります。先頭から順に比較・交換処理をするならば、交換処理が発生した場合は今までソート済みだった前方のデータ列をもう一度確認し、問題がないことが確認できた場所から後ろ側の処理を再開するようにすれば、末尾まで達した段階でソートは完了していることになります。
以下に、ノーム・ソートのサンプル・プログラムを示します。
/* GnomeSort : ノーム・ソートによるソート・ルーチン Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void GnomeSort( Ran first, Ran last, Less less ) { for ( Ran r = first + 1 ; r < last ; ++r ) { do { if ( ! less( *r, *( r - 1 ) ) ) break; swap( r - 1, r ); --r; } while ( r > first ); } }
サンプル・プログラムを見れば分かるように、実装は非常に単純になります。データ列全体を走査して処理を行うのではなく、比較・交換処理を行う位置を前後に移動しながら処理を行うようになっているので、データ列を読み込んでいる間に並列で並べかえを行うような処理も可能です。そのような場合、読み込まれた要素の末尾まで達したらいったん処理を中断し、ある程度データが追加されたら処理を再開するようにすればよいわけです。
ノーム・ソートは、2000 年に Hamid Sarbazi-Azad によって紹介されたのが最初のようで、その時は Stupid Sort と名付けられていました。その後、Dick Grune によって Gnome Sort と改名されています。Hamid によれば、ソート・アルゴリズムには
の二種類があって、ノーム・ソートはそのいずれにも当てはまらない新しいアルゴリズムであると紹介しています。しかし実際には、ノーム・ソートは後述する「単純挿入法」によく似た処理方法を持っています。なお、ループは一つだけで足りるという特徴を持っていますが、サンプル・プログラムでは二重ループの形になっています。前方・後方の移動の切り替えを別のやり方にすれば、ループを一つにすることは簡単にできます。
「選択ソート(Selection Sort)」は、配列の最大値(あるいは最小値)を配列の末尾へ移動して一つずつ配列の要素数を減らしていくところはバブル・ソートと同じですが、二要素ずつ比較しながら最大値を順に移動させるのではなく、配列から最大値を検索してその値と末尾の要素を交換することで実現させているところが異なっています。例をあげると下図のようになります。
|
下線で示した要素が交換対象で、太字になっているのが最大値です。処理の最後の方で、すでに最大値が未ソート列の末尾にあるのが見られますが、この場合は交換処理は不要ということになります。この例からわかるように、選択ソートは交換作業が一パスの中で一回だけになるので、バブル・ソートよりは高速に処理することができるようになります。
以下にコーディング例を示します。
/* SelectionSort : 選択ソート Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void SelectionSort( Ran first, Ran last, Less less ) { for ( Ran e = last - 1 ; e > first ; --e ) { Ran max = first; for ( Ran s = first + 1 ; s <= e ; ++s ) if ( less( *max, *s ) ) max = s; swap( e, max ); } }
最大値が末尾にある場合は交換処理は不要と書きましたが、サンプル・プログラムでは無条件に交換処理を行っています。これは、比較処理を毎回行うコストを考えたとき、最大値が末尾にある可能性が低ければ比較しないほうが処理量が少なくなると判断したためです。
「挿入ソート(Insertion Sort)」は、配列をソート済みの部分とそうでない部分に分けて、未ソートの部分からひとつ要素を取り出してはソート済み部分の適切な(ひとつ前の要素より大きく、すぐ後ろの要素より小さくなるような)位置に挿入する操作を繰り返してソートする方法です。処理の流れとしては
となります。抜き出した要素をソート済み配列に挿入する処理は、ソート済み配列の末尾から順に要素同士を比較して、抜き出した要素よりソート済み配列の要素の方が小さくなるまでデータをひとつずつ後ろにずらしていき、ソート済み配列の要素の方が小さくなった時点で空いた場所へ抜き出した要素を挿入することで実現できます。
要素を挿入する処理と、単純挿入法を使ったソート処理の様子を下図に示します。
|
|
この方法なら、バブル・ソートよりも比較・交換作業を減少させることができるので、その分処理が早くなります。最悪の場合は逆順にソートされたデータ列をソートする場合でしょう。この時は比較・交換回数がバブル・ソートと同数になってしまいます。逆にすでにソートされたデータ列なら、一パスにつき一回の比較のみで処理が終わるので、処理はかなり高速になります。
挿入ソートのサンプル・プログラムを以下に示します。
/* InsertionSort : 挿入ソート Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void InsertionSort( Ran first, Ran last, Less less ) { // 反復子の要素の型 typedef typename Ran::value_type value_type; for ( Ran e = first + 1 ; e < last ; ++e ) { value_type v = *e; // 未ソート列の先頭の要素を取得 bool inserted = false; // v が挿入されたか for ( Ran s = e - 1 ; s >= first ; --s ) { if ( less( v, *s ) ) { *(s + 1) = *s; } else { *(s + 1) = v; inserted = true; break; } } // v が未挿入の場合は先頭に要素を代入 if ( ! inserted ) *first = v; } }
「サイクル・ソート(Cycle-Sort)」は、1990 年の "The Computer Journal" の中で「B.K.Hadoon」によって発表された新しいソート方法です。この中では「巡回置換(Cyclic Permutation)」という概念が利用されています。
未ソートのデータ列 ( 5 3 2 1 4 ) を、( 1 2 3 4 5 ) の形に並べ替えたとき、両者を見比べると、未ソート列の先頭にある 5 を末尾の 4 の位置に移動し、4 を 1 の位置に、1 を 先頭の 5 の位置に順に置き換えることでこの三つの要素は並べ替えられた状態になります。さらに 3 と 2 を入れ替えれば全ての要素が並べ替えられ、ソートは完了したことになります。最初の、三つの要素を入れ替える操作を「巡回置換(Cyclic Permutation)」といい、
と表します。左から右へ、順番に要素を置き換え、末尾の要素は先頭の要素の位置に置き換える形になるのが「巡回」と名付けられている理由です。3 と 2 を入れ替える操作は
と表され、これは二つの要素を入れ替えることになるので「互換(Transposition)」といいます。
任意のデータ列に対する巡回置換や互換の組み合わせはただ一通りに決まります。これを巡回置換の積といいます。さらに、巡回置換は互換の積に分解することができます。先の例では、( 5 4 1 ) に対して ( 5 4 ), ( 4 1 ) の二つの互換に分けられます。よって、( 5 3 2 1 4 ) を ( 1 2 3 4 5 ) に並べ替える場合、
の三つの互換で実現可能となり、要素を交換する回数は三回で済みます。これがサイクル・ソートの原理になります。
ここで問題なるのが、どのように巡回置換の積を求めるかということです。前にも述べたように、データ列を並べ替える操作は互換の積で表すことができるので、必要な互換を順次求めることができれば実現できます。そこで、以下のような処理を行います。
例えば、データ列 ( 5 3 2 1 4 ) の先頭要素 5 よりも小さい要素の数を数えるとそれは 4 になるので、5 の位置から 4 つ後ろ側にある要素 4 と交換します。これを繰り返すと
|
となります。cnt は、対象の要素が本来あるべき位置を示しています。よって、入れ替えによってその要素はすでにソートされたことになります。代わりに先頭に移動した要素に対しても同じ操作を繰り返すと、やがて全ての要素の中の最小値に到達し、それは移動させる必要がないため処理は完了となります。上記結果を見ると、( 5 4 )( 4 1 ) の操作がなされたことになり、これはちょうど先ほど求めた互換の積と一致します。先頭の要素に対して処理が完了した時点で、先頭は最小値となっているので、その次の要素にシフトしてまた同じ処理を繰り返します。すでにソートされた要素であれば互換は発生せず、次の要素にシフトしますし、そうでなければまた二番目に小さい値が見つかるまで互換が繰り返されます。先の例では、3 と 2 が入れ替わり、2 は 二番目に小さな値なのでそこで処理が完了します。その後は全てソートされた状態なので、互換は発生せずに末尾まで達します。その時点で全てのデータ列はソートされたことになります。
サイクル・ソートのサンプル・プログラムを以下に示します。
/* CycleSort : サイクル・ソートによるソート・ルーチン Ran first, last : ランダム・アクセス反復子(ソート開始と終了) Less less : 要素比較用関数オブジェクト(boolを返す二項叙述関数) */ template<class Ran, class Less> void CycleSort( Ran first, Ran last, Less less ) { for ( Ran s = first ; s < last ; ) { Ran idx = s; // 未ソート列の中で、ソートされたときの位置を求める for ( Ran r = s + 1 ; r < last ; ++r ) if ( less( *r, *s ) ) ++idx; // 先頭要素にあたる場合はソート済み列に追加 if ( idx == s ) { ++s; continue; } // 対象の位置に等しい要素があればスキップ while ( ( ! less( *s, *idx ) ) && ( ! less( *idx, *s ) ) ) ++idx; swap( s, idx ); } }
サイクル・ソートを実装する上で問題となるのが、交換する要素が互いに等しい場合の対応です。等しい要素どうしの交換が発生した場合、その時点で同じ操作を無限に繰り返すことになってしまうため、そのときは交換する位置を変えなければなりません。サンプル・プログラムでは、等しい場合は後ろ側にシフトするようにしています。この処理の中で
と書かれているのは、*s < *idx でなく ( つまり *s ≥ *idx ) かつ *idx < *s でない ( つまり *idx ≥ *s ) ことをチェックすることで等しいかどうかを判断するためです。*s == *idx と書けばよさそうに見えますが、対象の要素は '==' をサポートしているとは限らないためこのように処理しています。また、このループの中で末尾に達していないかをチェックする処理がありませんが、これが必要となるのは等しい要素が末尾まで並んでいる場合で、このときは idx が示す位置は必ず等しい要素の並んだ列より前側になります(極端な例では、全てが等しい場合に s == idx となります)。よって、末尾まで到達してしまう場合は想定しなくても問題はありません。
今まで紹介したサンプル・プログラムを使ってデータ列をソートしたときの処理時間を計測した結果、以下のようになりました(単位はsec)。いずれの場合も、処理を 10 回繰り返したときの平均時間を表示しています(*5-1)。
データサイズ | 1000 | 2000 | 4000 | 8000 | 16000 | |
---|---|---|---|---|---|---|
ランダムなデータ列(Random) | バブル・ソート | 0.003746 | 0.011225 | 0.031125 | 0.116318 | 0.469145 |
バブル・ソート(改良版) | 0.003129 | 0.009231 | 0.031474 | 0.118207 | 0.468694 | |
シェーカー・ソート | 0.002096 | 0.006225 | 0.021525 | 0.074856 | 0.296345 | |
奇偶転置ソート | 0.001608 | 0.006734 | 0.021690 | 0.082583 | 0.332066 | |
ノーム・ソート | 0.001972 | 0.003067 | 0.010289 | 0.038439 | 0.156896 | |
選択ソート | 0.000649 | 0.003592 | 0.011075 | 0.041610 | 0.153302 | |
挿入ソート | 0.000263 | 0.001329 | 0.005996 | 0.020155 | 0.080071 | |
サイクル・ソート | 0.003001 | 0.008291 | 0.029807 | 0.112702 | 0.463155 | |
ソート済みの数列(Sort) | バブル・ソート | 0.000906 | 0.002331 | 0.010305 | 0.027482 | 0.108015 |
バブル・ソート(改良版) | 0.000002 | 0.000030 | 0.000004 | 0.000050 | 0.000042 | |
シェーカー・ソート | 0.000004 | 0.000006 | 0.000012 | 0.000019 | 0.000028 | |
奇偶転置ソート | 0.000002 | 0.000004 | 0.000005 | 0.000009 | 0.000021 | |
ノーム・ソート | 0.000002 | 0.000003 | 0.000005 | 0.000030 | 0.000017 | |
選択ソート | 0.000586 | 0.004407 | 0.011509 | 0.039850 | 0.152584 | |
挿入ソート | 0.000003 | 0.000004 | 0.000007 | 0.000013 | 0.000022 | |
サイクル・ソート | 0.001628 | 0.003770 | 0.011971 | 0.040504 | 0.152706 | |
逆ソートした数列(Reverse) | バブル・ソート | 0.001474 | 0.002827 | 0.008149 | 0.025106 | 0.104999 |
バブル・ソート(改良版) | 0.000772 | 0.000023 | 0.000060 | 0.000049 | 0.000021 | |
シェーカー・ソート | 0.000026 | 0.000029 | 0.000031 | 0.000018 | 0.000042 | |
奇偶転置ソート | 0.000024 | 0.000021 | 0.000016 | 0.000045 | 0.000344 | |
ノーム・ソート | 0.000059 | 0.000021 | 0.000007 | 0.000012 | 0.000034 | |
選択ソート | 0.000796 | 0.003538 | 0.010269 | 0.040175 | 0.150763 | |
挿入ソート | 0.000005 | 0.000029 | 0.000010 | 0.000020 | 0.000034 | |
サイクル・ソート | 0.001351 | 0.003492 | 0.010116 | 0.036995 | 0.149666 | |
全要素が0(Zero) | バブル・ソート | 0.001652 | 0.002993 | 0.013475 | 0.047184 | 0.230353 |
バブル・ソート(改良版) | 0.000949 | 0.005476 | 0.016170 | 0.062954 | 0.245817 | |
シェーカー・ソート | 0.001974 | 0.004718 | 0.015470 | 0.061850 | 0.241895 | |
奇偶転置ソート | 0.000625 | 0.003314 | 0.013023 | 0.045218 | 0.169411 | |
ノーム・ソート | 0.002105 | 0.006390 | 0.018920 | 0.079903 | 0.319138 | |
選択ソート | 0.000581 | 0.002919 | 0.010086 | 0.038920 | 0.148484 | |
挿入ソート | 0.000618 | 0.002772 | 0.009554 | 0.037536 | 0.148387 | |
サイクル・ソート | 0.001639 | 0.004689 | 0.017422 | 0.067609 | 0.258106 |
ランダムなデータ列をソートしたときの処理時間を各ソート法で比較したグラフは次のようになります。
どの手法も、処理時間はデータ量の二乗にほぼ比例しているように見えます。実際、データ量の比率に対する処理時間の増加率を計算すると以下の表のようになり、データ量が二倍になると処理時間がほぼ 4 倍に増加していることが分かります。
データの増加率 | 2000/1000 | 4000/2000 | 8000/4000 | 16000/8000 |
---|---|---|---|---|
バブル・ソート | 3.00 | 2.77 | 3.74 | 4.03 |
バブル・ソート(改良版) | 2.95 | 3.41 | 3.76 | 3.97 |
シェーカー・ソート | 2.97 | 3.46 | 3.48 | 3.96 |
奇偶転置ソート | 4.19 | 3.22 | 3.81 | 4.02 |
ノーム・ソート | 1.56 | 3.35 | 3.74 | 4.08 |
選択ソート | 5.53 | 3.08 | 3.76 | 3.68 |
挿入ソート | 5.05 | 4.51 | 3.36 | 3.97 |
サイクル・ソート | 2.76 | 3.60 | 3.78 | 4.11 |
各ソートの処理時間を比較すると、バブル・ソートとサイクル・ソートが最も遅く、次いで奇偶転置ソート、シェーカー・ソートがほぼ同程度、ノーム・ソートと選択ソートも同程度、挿入ソートが最も速いという結果になっています。
データの傾向に対する各ソートの処理時間を示したグラフを以下に示します。
バブル・ソート | バブル・ソート(改良版) |
---|---|
シェーカー・ソート | 奇偶転置ソート |
ノーム・ソート | 選択ソート |
挿入ソート | サイクル・ソート |
選択ソートを除き、全要素がゼロ、またソート済みのデータ列については通常より処理時間が短くなっています。特に、改良版バブル・ソートとシェーカー・ソート、奇偶転置ソート、ノーム・ソート、挿入ソートはほとんど処理時間がゼロに近い値となっています。これらはソートされていることが判明したらすぐに処理を完了するようになっているため、比較処理が一回のパスだけで済む上に交換処理が発生せず、非常に早く処理することができます。
逆順ソートは最も比較・交換処理が多くなり、従って最も処理時間が長くなるはずですが、ノーム・ソートと挿入ソートだけが予想通りの結果になっています。シェーカー・ソートと選択ソートはランダムなデータ列と同程度、バブルソートと奇偶転置ソート、サイクル・ソートは逆ソート列がランダムなデータ列の半分程度の処理時間となっており、原因まではわかりませんでした。
選択ソートはその処理の仕組みから、いかなるデータ列に対しても処理時間がほとんど変わりません。これは、どのような場合でも比較回数は変化しないためです。また、交換回数はデータ数を超えることがなく、よって最大でもデータ数に比例するため、処理時間は比較処理の時間に依存することになります。
交換処理にコストがかかるよう、vector を要素とするデータ列を作成して処理すると次のような結果が得られました。いずれも、要素数 100 のランダムな数値からなる vector を 1000 個持った配列に対して処理を行っています。また、比較処理が短くなるように、各要素(vector)の先頭の要素だけで大小判定をしています。
ソート方法 | 処理時間 |
---|---|
バブル・ソート | 0.057340 |
バブル・ソート改良版 | 0.054129 |
シェーカー・ソート | 0.054399 |
奇偶転置ソート | 0.055042 |
ノーム・ソート | 0.051860 |
選択ソート | 0.003710 |
挿入ソート | 0.014266 |
サイクル・ソート | 0.005848 |
ここでは、選択ソートとサイクル・ソートの処理時間が他と比較して非常に短いという結果が得られています。サイクル・ソートは比較的新しい手法なのにもかかわらず最初のテストではバブル・ソートと大差ない結果になっていましたが、このソート法は要素の交換回数が非常に少なくなるという利点を持っているため交換処理にコストがかかるような場合には非常に有効な手法になります。また、先にも述べたように、選択ソートの処理時間のほとんどは比較処理に依存するので、交換処理に時間がかかるような場合は選択ソートも有効な手法であることになります。
逆に、比較処理にコストがかかるような場合を想定して、数値そのものではなくその約数の数を比較させたときのソートの処理時間は次のようになりました。要素の数値範囲は 0 から 99 まで、データ列の要素数は 1000 としています。
ソート方法 | 処理時間 |
---|---|
バブル・ソート | 0.100623 |
バブル・ソート改良版 | 0.096855 |
シェーカー・ソート | 0.066899 |
奇偶転置ソート | 0.104951 |
ノーム・ソート | 0.088157 |
選択ソート | 0.101191 |
挿入ソート | 0.041339 |
サイクル・ソート | 0.242117 |
比較処理に使った関数は次のようなものになります。
// 処理時間の長い比較関数オブジェクト(約数の個数を比較する) struct slow_less : public std::binary_function<unsigned int,unsigned int,bool> { bool operator()( const unsigned int& i1, const unsigned int& i2 ) const { unsigned int c1 = 0, c2 = 0; for ( unsigned int i = 2 ; i <= i1 / 2 ; ++i ) if ( i1 % i == 0 ) ++c1; for ( unsigned int i = 2 ; i <= i2 / 2 ; ++i ) if ( i2 % i == 0 ) ++c2; return( c1 < c2 ); } };
サイクル・ソートは、順位を求めるために比較処理を数多く行います。そのため、比較処理に時間がかかるような場合はかなり不利です。このようにサイクル・ソートは非常に癖のある性質を持ったソート法で、利用する場面もかなり限られたところになります。
総合的に見て、今回紹介したソート法の中では挿入ソートが非常に安定した性能を持っていることがわかります。しかし、それでも処理時間がデータ数の二乗に比例するという性質は変わりません。よってデータ数が増えれば処理時間は急激に上昇していきます。次回はこの上昇カーブがずっと緩やかなソートアルゴリズムを紹介していきたいと思います。
* 5-1) テスト環境はかなり特殊で、Windows7 にある VirtualBox 上の Linux でテストしています。CPU は Intel Core i5 2.67GHz で 4 コアですが、ゲスト OS の Linux 上では 1 コアとして動作しています。従って、処理時間は参考程度と考えてください。環境によって全く異なる結果になるでしょう。しかし、データ量に伴い時間が二乗に比例して長くなるのは基本的には変わらないと思います。
前に戻る | タイトルに戻る |