Списки и последовательный доступ в C++

автор , Дек.14, 2010, рубрики C/C++/C#

Список как структура для хранения данных известна достаточно �?ироко. Фактически, наверняка в любом курсе программирования ее изучают в том или ином виде. Но то, что обычно усваивает студент (читать: "будущий программист") заключается примерно в следующем:

Списки организуются на динамической памяти. Динамическая память, по мнению студента, это то, что можно получить при помощи операторов new и удалить dispose.

Списки организуются при помощи одного указателя на голову списка и, включенных в каждый элемент, указателей на следующий элемент списка. Точнее, может присутствовать указатель и на предыдущий элемент, а также указатель на хвост списка, это не суть важно.

Кроме этого, средний студент часто путает список с очередью: все дело в том, что обычно на лабораторных работах дается задание реализовать очередь, выбрав для ее внутреннего устройства список. На самом деле, очередь это "нечто", что позволяет поместить туда элемент и получить его согласно правилу FIFO ("First In, First Out" --- "Первый во�?ел, первый вы�?ел").

Тем не менее, я не хотел обижать студентов, совсем нет. Просто очень часто, если практически не постоянно можно увидеть один и тот же подход: организацию списков при помощи указателей. Проблема заключается в том, что такая реализация списков не единственна и достаточно часто не эффективна.

Допустим, программист реализует некую структуру данных, основываясь на хе�?-таблице, при этом коллизии ре�?аются списками элементов. Что может сделать программист, имеющий стереотипы наподобие предыдущих? Что-нибудь в духе:

#include

#include

#include

#include

struct hash_list

{

int key;

hash_list* next;

};

#define HASH_TABLE_SIZE 511

hash_list* hash[HASH_TABLE_SIZE];

#define COUNT 1000000

struct {

unsigned int iterations;

} stat;

int main()

{

unsigned int i, j;

int k;

hash_list* ptr, *prev_ptr;

bzero((char*)hash, sizeof(hash));

bzero((char*)&stat, sizeof(stat));

srandom(time(NULL));

for(i = 0; i < COUNT; i++) { k = random() & 8191; prev_ptr = NULL; for(ptr = hash[k%HASH_TABLE_SIZE]; ptr && ptr->key != k;

prev_ptr = ptr, ptr = ptr->next, stat.iterations++)
;

if(!ptr)

{

if(prev_ptr)

{

prev_ptr->next = (hash_list*)calloc(1, sizeof(hash_list));

prev_ptr->next->key = k;

}

else

{

hash[k%HASH_TABLE_SIZE] = (hash_list*)calloc(1, sizeof(hash_list));

hash[k%HASH_TABLE_SIZE]->key = k;

}

}

}

printf("Iterations: %u\n", stat.iterations);

}

Что же тут неправильного? Ничего. Все сделано, вроде бы, достаточно логично. Тем не менее, показательно сделать несколько запусков и полюбоваться результатами (для измерения затраченного времени буду использовать команду bash time):

alk:~$ g++ -O5 t1.cpp -o t1

alk:~$ time t1

Iterations: 7485181

real 0m0.559s

user 0m0.549s

sys 0m0.001s

alk:~$ time t1

Iterations: 7485586

real 0m0.556s

user 0m0.555s

sys 0m0.001s

alk:~$ time t1

Iterations: 7486098

real 0m0.558s

user 0m0.549s

sys 0m0.001s

alk:~$ time t1

Iterations: 7480581

real 0m0.556s

user 0m0.548s

sys 0m0.000s

На самом деле, единственное что можно поставить в упрек написанной вы�?е программе, это расход на каждый элемент (целое число) два раза боль�?е оперативной памяти, чем надо еще столько же тратится на указатель для организации списка. Несложно придумать реализацию подобного списка на массиве, когда указатели не нужны:

#include

#include

#include

#include

struct hash_item

{

int* keys;

size_t alloc;

size_t used;

};

#define HASH_TABLE_SIZE 511

#define HASH_ALLOC_DELTA 16

hash_item hash[HASH_TABLE_SIZE];

#define COUNT 1000000

struct {

unsigned int iterations;

} stat;

int main()

{

unsigned int i, j;

int k;

hash_item* ptr;

bzero((char*)hash, sizeof(hash));

bzero((char*)&stat, sizeof(stat));

srandom(time(NULL));

for(i = 0; i < COUNT; i++) { k = random() & 8191; ptr = hash + (k%HASH_TABLE_SIZE); for(j = 0; j < ptr->used && ptr->keys[j] != k;

j++, stat.iterations++)

;

if(j >= ptr->used)

{

if(ptr->used == ptr->alloc)

{

int* temp = ptr->keys;

ptr->keys = (int*)calloc(ptr->alloc += HASH_ALLOC_DELTA,

sizeof(int));

if(ptr->used)

{

memcpy(ptr->keys, temp, ptr->used*sizeof(int));

free(temp);

}

}

ptr->keys[ptr->used++] = k;

}

}

printf("Iterations: %u\n", stat.iterations);

}

Выглядит на первый взгляд несколько сомнительно: ведь преимущества обычных списков с указателями заключаются как раз в том, что общее количество выделенных элементов будет равно нужному, а при вставке нового элемента не требуется модификация всего остального списка. В данном же случае, количество выделенных элементов, размер которых, правда, мень�?е предыдущего в два раза, всегда кратно 16, а изменение списка влечет за собой копирование всех данных из старой области памяти в новую.

Тем не менее, надо попробовать еще раз запустить тест:

alk:~$ g++ -O5 t2.cpp -o t2

alk:~$ time t2

Iterations: 7478165

real 0m0.296s

user 0m0.296s

sys 0m0.000s

alk:~$ time t2

Iterations: 7477196

real 0m0.296s

user 0m0.296s

sys 0m0.000s

alk:~$ time t2

Iterations: 7489060

real 0m0.296s

user 0m0.295s

sys 0m0.000s

alk:~$ time t2

Iterations: 7492167

real 0m0.298s

user 0m0.282s

sys 0m0.008s

Если вас не удивили полученные числа, то читать даль�?е вам будет совер�?енно неинтересно.

Стоит отметить, что общее количество сравнений практически одинаково в обоих случаях. Разница в затраченном времени между вторым и первым вариантом программы достаточно просто объяснима, для этого достаточно представлять себе в общих чертах устройство современных микропроцессоров.

Все дело в том, что память не является чем-то однородным, более того, память образует иерархию по своей скорости, например: регистры процессора, ке�? первого уровня, ке�? второго уровня, оперативная память, жесткие диски... несмотря на то, что каждый "вид" памяти предназначен, по сути, для одного и того же --- хранения данных --- скорость доступа может сильно отличаться.
Когда процессор желает что-то прочитать из оперативной памяти, эти данные "оседают" в ке�?ах, доступ к которым быстрее, и если через некоторое время (пока запись еще не была удалена из ке�?ей) процессор вновь обратится к тому же адресу, что и рань�?е, то обращения к относительно медленной оперативной памяти не будет. Кроме того, ке�? разбит на области фиксированного размера (линии, в случае обычного Пентиума --- 32 байта), и именно такими блоками происходит чтение данных из оперативной памяти. Таким образом, если, как во втором случае, происходит чтение последовательного массива целых чисел, то считывая один элемент, в ке�? попадут как минимум 8 элементов этого массива и все они боль�?е не будут требовать обращений к оперативной памяти в ближай�?ее время.

В случае же "с указателями", невозможно предсказать какой элемент будет следующим в списке, потому что он зависит от содержимого внутри прочитанной области данных (указателя) и, скорее всего, следующий элемент не попадет в ке�?. Поэтому итерация по списку будет требовать еще столько операции чтения из оперативной памяти, сколько будет в списке элементов.

Кроме того, современные умные микропроцессоры, или не менее умные оптимизаторы, умеют делать предварительное чтение данных в ке�?. То есть, если читается блок в ке�?, то пока процессор с ним работает, можно прочитать в ке�? следующий блок памяти в расчете на последовательный доступ к данным (prefetch). Поэтому скорость последовательного доступа к элементам массива будет вы�?е, чем доступ к элементам "списка с указателями" даже когда размер структур более размера целого числа.

Кстати сказать, в таких случаях выгодно выравнивать размер структур по размеру ке�?лайнов, потому что чтение одного ке�?лайна из оперативной памяти тоже операция неоднородная и начало ке�?лайна появится в ке�?е быстрее, чем окончание, на чем тоже можно "сыграть".

Резюме
Таким образом, процессор всегда рассчитывает на последовательный доступ к данным и использование этого факта может сильно ускорить работу программы. Это относится не только к организации списков на массивах (не в случае, когда указатели на следующий элемент заменяются индексами внутри массива, а когда положение элемента в списке определяется его индексом в массиве), но и, например, к обработке двумерных массивов (значительно выгоднее читать массив по возрастанию реальных адресов ячеек).

PS: Кстати сказать, существуют эффективные вариации сортировки слиянием для данных, находящихся в оперативной памяти. Просто именно такой, достаточно простой способ сортировки, позволяет учитывать в алгоритме иерархичность оперативной памяти и легко распараллеливается на несколько процессоров.



Что-то ищите?

Используйте форму для поиска по сайту:



Все еще не можете что-то найти? Оставьте комментарий или свяжитесь с нами, тогда мы позаботимся об этом!

Ключевые слова нашего блога

  • Ускорение windows xp
  • Активация windows xp
  • Виндовс XP
  • Оптимизация windows xp
  • Активировать windows xp
  • Активация виндовс xp
  • Активация windows xp sp3
  • Скачать windows xp sp3
  • Настройка windows xp
  • Тонкая настройка windows xp

Архив сообщений

Все вхождения, в хронологическом порядке...