Известия РАН. Теория и системы управления, 2023, № 5, стр. 57-66
О ЧИСЛЕ РЕШЕНИЙ НЕКОТОРЫХ СПЕЦИАЛЬНЫХ ЗАДАЧ ЛОГИЧЕСКОГО АНАЛИЗА ЦЕЛОЧИСЛЕННЫХ ДАННЫХ
А. П. Дюкова a, Е. В. Дюкова a, *
a ФИЦ ИУ РАН
Москва, Россия
* E-mail: edjukova@mail.ru
Поступила в редакцию 03.04.2023
После доработки 28.04.2023
Принята к публикации 05.06.2023
- EDN: OHCWCE
- DOI: 10.31857/S0002338823050050
Аннотация
В классе дискретных перечислительных задач важное место принадлежит задачам поиска в целочисленных данных часто и нечасто встречающихся элементов. Вопросы эффективности такого поиска напрямую связаны с изучением метрических (количественных) свойств множеств частых и нечастых элементов. Предполагается, что исходные данные представлены в виде целочисленной матрицы, строки которой являются описаниями исследуемых объектов в заданной системе числовых характеристик этих объектов, называемых атрибутами. Рассмотрен случай, когда каждый атрибут принимает значения из множества {$0,1, \ldots ,k - 1\} ,{\text{\;}}k \geqslant 2$. Приведены асимптотические оценки типичного числа специальных частых фрагментов описаний объектов, называемых правильными фрагментами, и оценки типичной длины такого фрагмента. Представлены также новые результаты, касающиеся изучения метрических свойств минимальных нечастых фрагментов описаний объектов.
Введение. Рассматриваемые задачи анализа целочисленных данных возникают на этапе обучения логических процедур классификации по прецедентам. Исследование метрических (количественных) свойств множеств решений этих задач необходимо для получения теоретических оценок сложности синтеза логических классификаторов и прогноза временных затрат.
Введем основные понятия. Исследуется множество объектов M. Известно, что каждый объект множества M может быть представлен в виде числового вектора, полученного на основе наблюдения или измерения ряда его характеристик. Такие характеристики называют атрибутами. Предполагается, что каждый атрибут имеет ограниченное множество допустимых значений, которые кодируются целыми числами.
Пусть $X = \left\{ {{{x}_{1}},~ \ldots ,~{{x}_{n}}~} \right\}$ – заданное множество атрибутов; H – набор из r атрибутов вида – набор, в котором σi – допустимое значение атрибута ${{x}_{{{{j}_{i}}}}},i = \overline {1,{\text{\;}}r} $. Пару (σ, H) назовем элементарным фрагментом (ЭФ) ранга r. Через W(X) обозначим множество всех ЭФ, порождаемых набором атрибутов X.
Пусть $S = \left( {{{a}_{1}},~ \ldots ,~{{a}_{n}}} \right)~$– объект из M (здесь aj, $j \in \left\{ {1,~2,~ \ldots ,~n~} \right\}$, – значение атрибута xj для объекта S). Будем говорить, что S содержит ЭФ $\left( {{{\sigma }},~H} \right),H = \left\{ {{{x}_{{{{j}_{1}}}}}, \ldots ,~{{x}_{{{{j}_{r}}}}}} \right\},{{\sigma }} = \left( {{{{{\sigma }}}_{1}},~ \ldots ,{{{{\sigma }}}_{r}}} \right)$, если ${{a}_{{{{j}_{i}}}}} = {{\sigma }_{i}}$ при $i = \overline {1,{\text{\;}}r} $.
Дана некоторая совокупность объектов D из M и задано число p, 1$ \leqslant p \leqslant \left| D \right|$, где $\left| D \right|$ – число объектов в D. Объекты в D не обязательно различны.
ЭФ (σ, H), $\left( {{{\sigma }},~H} \right) \in W\left( X \right)$, называется (p, D)-частым, если для не менее p объектов из D содержат (σ, H). ЭФ $\left( {\sigma ,~H} \right),{\text{\;}}\left( {\sigma ,~H} \right) \in W\left( X \right)$, ранга $r,{\text{\;}}r \leqslant \left| D \right|$, называется правильным в D, если (σ, H) – ‒ (r, D)-частый. ЭФ $\left( {{{\sigma }},~H} \right),{\text{\;}}\left( {{{\sigma }},~H} \right) \in W\left( X \right)$, называется нечастым в D, если ни один объект из D не содержит (σ, H), и минимальным нечастым в D, если из условия ${{\sigma }}' \subset {{\sigma }},{\text{\;}}H' \subset H$ следует, что ЭФ $\left( {{{\sigma '}},~H'} \right)$ не является нечастым в D.
Логическая классификация целочисленных данных предполагает наличие нескольких непересекающихся выборок ${{D}_{{1~}}},~ \ldots ~,~{{D}_{{l~}}}_{~}$, $l \geqslant 2$, объектов из M, каждая из которых представляет некоторый класс объектов. Объекты, содержащиеся в этих выборках, называются прецедентами, а атрибуты из X – признаками. На этапе обучения в каждой выборке ${{D}_{{i~}}},{\text{\;}}i \in \left\{ {1,~2,~ \ldots ,~l} \right\}$, ищутся такие частые ЭФ, которые являются нечастыми в Dj при любом $j \ne i$. Найденные ЭФ позволяют различать прецеденты из разных классов и называются логическими закономерностями или представительными элементарными классификаторами [1–6].
Могут накладываться некоторые дополнительные условия на вид искомых ЭФ (в зависимости от рассматриваемой модели классификатора). Например, ищутся так называемые тупиковые представительные элементарные классификаторы. Элементарный классификатор (σ, H) называется тупиковым представительным для ${{D}_{{i~}}},{\text{\;}}i \in \left\{ {1,~2,~ \ldots ,~l} \right\}$, если выполнены два условия: 1) (σ, H) – $\left( {1,~{{D}_{{i~}}}} \right)$-частый ЭФ; 2) (σ, H) – минимальный нечастый в Dj при любом $j \ne i$. В этом случае при поиске минимальных нечастых ЭФ возникает необходимость рассматривать труднорешаемую дискретную задачу построения тупиковых покрытий целочисленной матрицы [3], строками которой являются описания прецедентов, не принадлежащих Di.
В [6] предложена модель логического классификатора, базирующаяся на первоначальном поиске в каждой выборке ${{D}_{{i~}}},{\text{\;}}i \in \left\{ {1,~2,~ \ldots ,~l} \right\}$, правильных ЭФ и последующем отборе среди них тех, которые не содержатся в описаниях прецедентов из других классов. Данная модель демонстрирует существенное преимущество по скорости счета перед классической моделью, основанной на построении тупиковых представительных элементарных классификаторов, не уступая последней в качестве классификации.
Представляет интерес получение асимптотических оценок (при n → ∞) типичного числа правильных ЭФ и оценок типичной длины правильного ЭФ. В [7] требуемые оценки получены для случая, когда число объектов в D существенно меньше числа атрибутов и каждый атрибут принимает значения из множества {$0,1, \ldots ,k - 1\} ,~k \geqslant 2$.
Полученные в работе новые результаты в основном касаются изучения метрических свойств множества правильных ЭФ в случае $n \leqslant \left| D \right|$. Следует отметить, что аналогичные свойства множества минимальных нечастых ЭФ ранее изучались в ряде публикаций (например, [3, 8, 9]), в которых в том числе рассматривался случай $n \leqslant \left| D \right|$. Приводимые в статье оценки числа минимальных нечастых ЭФ имеют вид, позволяющий сравнивать их с соответствующими оценками правильных ЭФ. Результат сравнения свидетельствует о целесообразности (в плане сокращения временных затрат) применения методов поиска частых ЭФ для синтеза логических классификаторов и согласуется с полученными в [6] результатами экспериментов на случайных модельных данных.
В разд. 1 дана постановка задачи. Исходные данные представлены в виде целочисленной матрицы, строками которой являются описания объектов из D. Приведены формулировки двух основных теорем о числе правильных ЭФ. Доказательства этих теорем содержатся в разд. 2. В разд. 3 приведены полученные ранее и новые оценки типичных значений числа минимальных нечастых ЭФ и длины минимального нечастого ЭФ.
1. Постановка задачи и формулировки основных результатов. Пусть L, $L = ({{a}_{{ij}}}),i = \overline {1,~m} ,j = \overline {1,~n} $, – матрица с элементами из {$0,1, \ldots ,k - 1\} ,{\text{\;}}k \geqslant 2;{\text{\;}}E_{k}^{r},{\text{\;}}r \leqslant n,{\text{\;}}k \geqslant 2$, – множество наборов (σ1, ..., σr), ${{\sigma }_{i}} \in \left\{ {0,~1, \ldots ,k - 1} \right\},{\text{\;}}i = \overline {1,{\text{\;}}r} ;{\text{\;}}W_{r}^{n},{\text{\;}}r \leqslant n$, – множество всех наборов вида $\left\{ {{{j}_{1}},~ \ldots ,~{{j}_{r}}} \right\}$, где ${{j}_{t}} \in \left\{ {1,~2,~ \ldots ,n} \right\}$ при $t = \overline {1,{\text{\;}}r} $ и ${{j}_{1}} < \ldots < {{j}_{r}};{\text{\;}}V_{r}^{m},{\text{\;}}r \leqslant m$, – множество всех упорядоченных наборов вида $\left( {{{i}_{1}}, \ldots ,{{i}_{r}}} \right)$, где ${{i}_{t}} \ne {{i}_{l}}$ при $t,~l = \overline {1,{\text{\;}}r} $.
Положим . Число $r$ назовем длиной набора w.
Набор w назовем σ-допустимым для L, если можно указать набор ${v} = \left( {{{i}_{1}}, \ldots ,{{i}_{r}}} \right),{v} \in V_{r}^{m}$, такой, что ${{a}_{{{{i}_{t}}{{j}_{t}}}}}$ $ = {{\sigma }_{t}}$ при $t = \overline {1,{\text{\;}}r} $. Будем говорить, что σ-допустимый набор w порождается набором σ.
Нетрудно видеть, что в случае, когда в качестве строк матрицы L берутся описания объектов из выборки D, то набор $w \in W_{r}^{n},{\text{\;}}w = \left\{ {{{j}_{1}},~ \ldots ,~{{j}_{r}}} \right\}$, является σ-допустимым для L тогда и только тогда, когда ЭФ $\left( {{{\sigma }},~H} \right),{\text{\;}}H = \left\{ {{{x}_{{{{j}_{1}}}}}, \ldots ,~{{x}_{{{{j}_{r}}}}}} \right\}$ – правильный в D.
Введем обозначения: $\mathfrak{M}_{{mn}}^{k}$ – множество всех матриц размера $m \times n$ с элементами из {$0,1, \ldots ,k - 1\} ,{\text{\;}}k \geqslant 2$; $U\left( {L,~\sigma } \right),{\text{\;}}L \in \mathfrak{M}_{{mn}}^{k},{\text{\;}}\sigma \in E_{k}^{r}$, – множество всех σ-допустимых наборов для матрицы L; ${{U}_{r}}\left( {L,~\sigma } \right)$ – множество всех наборов в $U\left( {L,~{{\sigma }}} \right)$ длины r; $U\left( L \right),{\text{\;}}L \in \mathfrak{M}_{{mn}}^{k}$, – совокупность всех допустимых для матрицы L наборов, в которой каждый набор встречается столько раз, сколькими наборами из $E_{k}^{r}$ он порождается; |N| – мощность множества N;
Ниже приводятся асимптотические оценки типичного значения величины |U(L)| и оценки типичной длины допустимого для $L$ набора при различных значениях $m$ и $n$.
Выявление типичной ситуации связано с высказыванием типа “для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ при n → ∞ выполнено ${{F}_{1}}\left( L \right) \approx {{F}_{2}}\left( L \right)$” (здесь ${{F}_{1}}\left( L \right)$ и ${{F}_{2}}\left( L \right)$ – два функционала, заданные на матрицах из $\mathfrak{M}_{{mn}}^{k}$). Данное высказывание означает, что существуют две положительные бесконечно убывающие функции ${{\alpha }}\left( n \right)$ и ${{\beta }}\left( n \right)$, такие, что для всех достаточно больших $n$ имеет место
Справедливы приведенные ниже теоремы 1 и 2.
Теорема 1. Если ${{m}^{a}} \leqslant n \leqslant {{k}^{m}}^{{^{{{\beta }}}}},a > 1,{{\beta }} < 1,k \geqslant 2$, то при n → ∞ для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место
Теорема 2. Если $n \leqslant m \leqslant {{k}^{{{{n}^{\beta }}}}},{{\beta }} < 1{\text{/}}2,~k \geqslant 2$, то при n → ∞ для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место
Доказательства теорем 1 и 2 опираются на ряд лемм, приводимых в разд. 2.
2. Доказательства теорем 1 и 2. Пусть ; $w \in W_{r}^{n}$, $w = \{ {{j}_{1}},~ \ldots ,~{{j}_{r}}\} $. Матрица $L = ({{a}_{{ij}}}),\,\,i = \overline {1,~m} ,j = \overline {1,~n} ,L \in \mathfrak{M}_{{mn}}^{k}$, называется $({v},{{\sigma }},w)$-матрицей, если ${{a}_{{{{i}_{t}}{{j}_{t}}}}}$ = σt при $t = \overline {1,r} $. Обозначим через ${{N}_{{({v},{{\sigma }},w)}}}$ совокупность $({v},{{\sigma }},w)$ -матриц в $\mathfrak{M}_{{mn}}^{k}$, через $N_{{({v},{{\sigma }},w)}}^{*}$ – совокупность всех матриц L в ${{N}_{{({v},{{\sigma }},w)}}}$, таких, что $L \notin {{N}_{{({{{v}}_{1}},{{\sigma }},w)}}}$ при ${{{v}}_{1}} \in V_{r}^{m},{{{v}}_{1}} \ne {v}$.
Лемма 1. Если , то
Доказательство. Оценим, сколькими способами можно построить матрицу L из ${{N}_{{({v},{{\sigma }},w)}}}$. Однозначным образом определяются те элементы матрицы L, которые расположены на пересечении строк с номерами из ${v}$ и столбцов с номерами из w. Остальные элементы этой матрицы могут быть выбраны произвольным образом (${{k}^{{mn - {{r}^{2}}}}}$ способов). Отсюда получаем требуемую оценку. Лемма 1 доказана.
Лемма 2. Если ${v} \in V_{r}^{m},~w \in W_{r}^{n},{{\sigma }} \in E_{k}^{r}$, то
Доказательство. Оценим, сколькими способами можно построить матрицу L из $N_{{({v},{{\sigma }},w)}}^{*}$. Элементы этой матрицы, расположенные в столбцах с номерами не входящими в w, могут быть выбраны произвольным образом (${{k}^{{m\left( {n - r} \right)~}}}$ способов). Отсюда, учитывая, что строки в подматрице матрицы L, образованной столбцами с номерами из w, можно выбрать ${{({{k}^{r}} - 1)}^{{m - r}}}$ способами, получаем требуемую оценку. Лемма 2 доказана.
Лемма 3. Пусть и наборы ${{{v}}_{1}}$ и ${{{v}}_{2}}$ пересекаются по $a~\left( {a \geqslant 0} \right)$ элементам, а наборы w1 и w2 пересекаются по $b~\left( {b \geqslant 0} \right)$ элементам. Тогда
Доказательство леммы 3 не приводится в силу ее очевидности.
При доказательстве приводимых ниже лемм 4–6 используется выражение ${{b}_{n}}{{ \leqslant }_{n}}{{c}_{n}}$, которое означает, что ${{b}_{n}} \leqslant {{c}_{n}}$ при всех достаточно больших n.
Лемма 4. 1. Если $m \leqslant n \leqslant {{k}^{{{{m}^{\beta }}}}},\beta < 1$, то
2. Имеет место
3. Если $n \leqslant m$, то
Доказательство. Положим ${{a}_{r}} = C_{n}^{r}C_{m}^{r}{{k}^{{r - {{r}^{2}}}}}$, $q\, = \,0.~5{\text{lo}}{{{\text{g}}}_{k}}mn - 0.~5{\text{lo}}{{{\text{g}}}_{k}}{\text{log}}_{k}^{2}mn,\,\,t\, = \,{\text{lo}}{{{\text{g}}}_{k}}{\text{lo}}{{{\text{g}}}_{k}}{\text{lo}}{{{\text{g}}}_{k}}n$.
1. Пусть $m \leqslant n \leqslant {{k}^{{{{m}^{\beta }}}}},\beta < 1$, и $r \leqslant {{r}_{1}} + 1$. Тогда, пользуясь тем, что $q \leqslant $ 0.5logkmn, ${{k}^{{2q}}} = mn{\text{/log}}_{k}^{2}mn{\text{\;}}~$ и $\left( {n - q} \right){{ \geqslant }_{n}}0.5n$ при $m \leqslant n,{\text{\;}}\left( {m - q} \right){{ \geqslant }_{n}}0.5m$ при $n \leqslant {{2}^{{{{m}^{\beta }}}}}$, получаем
2. При $r \geqslant {{r}_{2}} - 1~$ получаем
3. При $n \leqslant m,{\text{\;}}r \geqslant {{r}_{3}} - 1$ получаем
Таким образом, ${{a}_{{r - 1}}} = o({{a}_{r}}),{\text{\;}}n \to \infty $, в случае 1 и ${{a}_{{r + 1}}} = o({{a}_{r}}),{\text{\;}}n \to \infty $, в каждом из случаев 2 и 3. Лемма 4 доказана.
Лемма 5. Если $m \leqslant n$ и $r,~l \leqslant {{r}_{2}}$, то имеет место
Доказательство. Обозначим ${{{{\lambda }}}_{b}} = {{k}^{{lb}}}C_{n}^{r}C_{r}^{b}C_{{n - r}}^{{l - b}}{\text{/}}C_{n}^{r}C_{{n - r}}^{l}$. Так как$~$
Следовательно, оцениваемая сумма не превосходит $C_{n}^{r}C_{{n - r}}^{l}(1 + {{\delta }}(n))$, где δ(n) → 0 при n→ ∞. Отсюда, пользуясь неравенством $C_{{n - r}}^{l} \leqslant C_{n}^{l}$, получаем утверждением леммы. Лемма 5 доказана.
Лемма 6. Если $m \leqslant ~{{k}^{{{{n}^{{{\beta }}}}}}},{{\beta }} < 1{\text{/}}2$, и $r,~l \leqslant $ ${{r}_{3}}$, то имеет место
Доказательство леммы 6 аналогично доказательству леммы 5 (в этом случае $r,{\text{\;}}l \leqslant 2{{n}^{{{\beta }}}}$ и ${{{{\lambda }}}_{b}}{{ \leqslant }_{n}}{{(8{{n}^{{2{{\beta }} - 1}}})}^{b}}$).
Будем считать $\mathfrak{M}_{{mn}}^{k} = \left\{ L \right\}$ пространством элементарных событий, в котором каждое событие L происходит с вероятностью $1{\text{/}}\left| {\mathfrak{M}_{{mn}}^{k}} \right|$. Математическое ожидание случайной величины X(L), определенной на множестве $\mathfrak{M}_{{mn}}^{k}$, будем обозначать через ${\mathbf{M}}X\left( L \right)$, дисперсию – через ${\mathbf{D}}X\left( L \right)$.
Лемма 7 [10]. Пусть для случайных величин ${{X}_{1}}\left( L \right)$ и ${{X}_{2}}\left( L \right)$, определенных на $\mathfrak{M}_{{mn}}^{k}$, выполнено ${{X}_{1}}\left( L \right) \geqslant {{X}_{2}}\left( L \right) \geqslant 0$ и при n → ∞ верно ${\mathbf{M}}{{X}_{1}}\left( L \right) \approx {\mathbf{M}}{{X}_{2}}\left( L \right),~{\mathbf{D}}{{X}_{2}}\left( L \right){\text{/}}{{({\mathbf{M}}{{X}_{2}}\left( L \right))}^{2}}$ → 0. Тогда для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место ${{X}_{1}}\left( L \right) \approx {{X}_{2}}\left( L \right) \approx {\mathbf{M}}{{X}_{2}}\left( L \right),~n \to \infty $.
Пусть ${{\sigma }} \in E_{k}^{r},{\text{\;}}w \in W_{r}^{n}$. На $\mathfrak{M}_{{mn}}^{k} = \left\{ L \right\}$ рассмотрим случайную величину ${{\zeta }_{{({{\sigma }},w)}}}(L),$ равную 1, если w – ${{\sigma }}$-допустимый набор для матрицы L, и равную 0 в противном случае. Положим
Нетрудно видеть, что ${{{{\mu }}}_{r}}\left( L \right) = \left| {{{U}_{r}}\left( L \right)} \right|$ (число наборов в U(L) длины r, ${{\zeta }}\left( L \right) = $ $\left| {U\left( L \right)} \right|$ и ${{\zeta }_{i}}(L),i \in \{ 1,~2\} $, – число тех наборов в U(L), длины которых принадлежат интервалу ϕi.
Оценим вероятность события , обозначаемую далее через $P({{\zeta }_{{({{\sigma }},w)}}}(L)\, = \,1)$. Очевидно, в силу леммы 1
(2.1)
$P({{{{\zeta }}}_{{\left( {{{\sigma }},w} \right)}}}\left( L \right) = 1) \leqslant \mathop \sum \limits_{{v} \in V_{r}^{m}} \left| {{{N}_{{\left( {{v},{{\sigma }},w} \right)}}}} \right|{\text{/|}}\mathfrak{M}_{{mn}}^{k}{\text{|}} = C_{m}^{r}{{k}^{{ - {{r}^{2}}}}}.$С другой стороны, в силу леммы 2 имеем
(2.2)
$P({{\zeta }_{{\left( {{{\sigma }},w} \right)}}}\left( L \right) = 1) \geqslant \mathop \sum \limits_{{v} \in V_{r}^{m}} {\text{|}}N_{{\left( {{v},{{\sigma }},w} \right)}}^{*}{\text{|/|}}\mathfrak{M}_{{mn}}^{k}{\text{|}} = C_{m}^{r}{{(1 - {{k}^{{ - r}}})}^{{m - r}}}{{k}^{{ - {{r}^{2}}}}}.$Из (2.1), а также леммы 4 сразу вытекает следующая лемма.
Лемма 8. Если $m \leqslant n \leqslant ~{{k}^{{{{m}^{{{\beta }}}}}}},{{\beta }} < 1$, то имеет место
Лемма 9. Если ${{m}^{a}} \leqslant n,a > 1$, то
Доказательство. Имеем
Так как $m{{k}^{{ - {{r}_{1}}}}} \to 0,{\text{\;}}n \to \infty $, то ${{(1 - {{k}^{{ - {{r}_{1}}}}})}^{{m - {{r}_{1}}}}} \to 1,{\text{\;}}n \to \infty $. Откуда, пользуясь (2.2), получаем
Лемма 9 доказана.
Из лемм 8 и 9 сразу вытекает следующая лемма.
Лемма10. Если , то
Доказательства представленных ниже лемм 11–13 не приводятся, поскольку они полностью аналогичны доказательству леммы 10.
Лемма11. Если ${{m}^{a}} \leqslant n,a > 1$, то имеет место
Лемма12. Если $n \leqslant m$, то
Лемма13. Если ${{m}^{a}} \leqslant n \leqslant {{k}^{{{{m}^{{{\beta }}}}}}},a > 1,{{\beta }} < 1$, то
Лемма14. Если ${{m}^{a}} \leqslant n \leqslant {{k}^{{{{m}^{{{\beta }}}}}}},a > 1,\beta < 1$, то имеет место
Доказательство. Имеем
(2.3)
${\mathbf{D}}{{{{\zeta }}}_{1}}\left( L \right) = {\mathbf{M}}{{\left( {{{{{\zeta }}}_{1}}\left( L \right)} \right)}^{2}} - {{\left( {{\mathbf{M}}{{{{\zeta }}}_{1}}\left( L \right)} \right)}^{2}}.$Нетрудно видеть, что
(2.4)
$ \leqslant \mathop \sum \limits_{r,l \in {{\phi }_{1}}} C_{n}^{r}C_{n}^{l}C_{m}^{r}C_{m}^{l}{{k}^{{r + l}}}{{k}^{{ - {{r}^{2}} - {{l}^{2}}}}}(1 + {{\delta }}(n)),~$С другой стороны, в силу леммы 13
(2.5)
${{\left( {{\mathbf{M}}{{{{\zeta }}}_{1}}\left( L \right)} \right)}^{2}} \approx \mathop \sum \limits_{r,l \in {{\phi }_{1}}} C_{n}^{r}C_{n}^{l}C_{m}^{r}C_{m}^{l}{{k}^{{r + l}}}{{k}^{{ - {{r}^{2}} - {{l}^{2}}}}},\quad n \to \infty .{\text{\;}}$Из (2.3)–(2.5) следует утверждение доказываемой леммы. Лемма 14 доказана.
Аналогично лемме 14 доказываются приводимые ниже леммы 15–17.
Лемма 15. Если ${{m}^{a}} \leqslant n \leqslant {{k}^{{{{m}^{\beta }}}}},\,\,a > 1,\,\,{{\beta }} < 1$, то
Лемма16. Если ${{m}^{a}} \leqslant n,\,\,a > 1$, то
Лемма17. Если $n \leqslant m$, то
Пусть ${v} \in V_{r}^{m},~{{\sigma }} \in E_{k}^{r},w \in W_{r}^{n}$. На $\mathfrak{M}_{{mn}}^{k} = \left\{ L \right\}$ рассмотрим случайную величину ${{{{\xi }}}_{{\left( {{v},{{\sigma }},w} \right)}}}(L),~$ равную 1, если $L \in {{N}_{{\left( {{v},{{\sigma }},w} \right)}}}$, и равную 0 в противном случае. Положим
Лемма 18. Если $n \leqslant m \leqslant ~{{k}^{{{{n}^{{{\beta }}}}}}},\,\,{{\beta }} < 1{\text{/}}2$, то при n → ∞ для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место
Доказательство. Оценим вероятность события, ${{{{\xi }}}_{{\left( {{v},{{\sigma }},w} \right)}}}(L) = 1,{v} \in V_{r}^{m},{{\sigma }} \in E_{k}^{r},w \in W_{r}^{n}$, обозначаемую далее через $P({{{{\xi }}}_{{\left( {{v},{{\sigma }},w} \right)}}}\left( L \right) = 1)$. В силу леммы 1
Следовательно, согласно лемме 4,
(2.6)
${\mathbf{M}}~{{\xi }}\left( L \right) \approx {\mathbf{M}}{{{{\xi }}}_{1}}\left( L \right) \approx \mathop \sum \limits_{r \in {{\phi }_{2}}} C_{n}^{r}C_{m}^{r}{{k}^{{r - {{r}^{2}}}}},\quad n \to \infty .$Из (2.6) и леммы 6, используя схему доказательства леммы 14, получаем
(2.7)
${\mathbf{D}}{{{{\xi }}}_{1}}(L){\text{/}}{{({\mathbf{M}}{{{{\xi }}}_{1}}(L))}^{2}},\quad n \to \infty .$Из (2.6), (2.7) и леммы 7 следует утверждение доказываемой леммы. Лемма 18 доказана.
Утверждения теоремы 1 следуют непосредственно из лемм 7, 10, 11, 13, 14–16, а утверждения теоремы 2 следуют непосредственно из лемм 7, 12, 17, 18 и неравенства .
3. Оценки типичных значений числа минимальных нечастых ЭФ и длины минимального нечастого ЭФ. Положим $L \in \mathfrak{M}_{{mn}}^{k},L = ({{a}_{{ij}}}),\,\,i = 1,~ \ldots ,~m,{\text{\;}}j = 1,~ \ldots ,~n$; ${{\sigma }} \in E_{k}^{r},{{\sigma }} = \left( {{{{{\sigma }}}_{1}},~ \ldots ,{{{{\sigma }}}_{r}}} \right);w \in W_{r}^{n}$, w = {j1, ..., jr}.
Набор w называется σ-покрытием матрицы L длины r, если для любого $i \in \left\{ {1,2, \ldots ,~m} \right\}$ найдется $j \in \left\{ {{{j}_{1}},~ \ldots ,~{{j}_{r}}} \right\}$, такое, что ${{a}_{{ij}}} \ne {{\sigma }_{j}}$. Будем говорить, что σ-покрытие w порождается набором σ.
Набор w, являющийся σ-покрытием матрицы L, называется тупиковым, если при любом $~t \in \left\{ {1,~2, \ldots ,{\text{\;}}r} \right\}$ набор $w{{\backslash }}\{ {{j}_{t}}\} $ не является ${{{{\gamma }}}_{t}}$-покрытием матрицы L, где ${{{{\gamma }}}_{t}} = \left( {{{{{\sigma }}}_{1}},~ \ldots ,~{{{{\sigma }}}_{{t - 1}}},~{{{{\sigma }}}_{{t + 1}}},~ \ldots ,~{{{{\sigma }}}_{r}}~} \right)$. Если w – тупиковое σ-покрытие матрицы L, то нетрудно видеть, что столбцы матрицы L с номерами из w содержат подматрицу, имеющую с точностью до перестановки строк вид
Отметим, что в случае, когда в качестве строк матрицы L берутся описания объектов из выборки D, то набор $w \in W_{r}^{n},{\text{\;}}w = \left\{ {{{j}_{1}},~ \ldots ,~{{j}_{r}}} \right\}$, является тупиковым σ-покрытием матрицы L тогда и только тогда, когда ЭФ $\left( {{{\sigma }},~H} \right),{\text{\;}}H = \left\{ {{{x}_{{{{j}_{1}}}}}, \ldots ,~{{x}_{{{{j}_{r}}}}}} \right\}$ – минимальный нечастый в D.
Введем обозначения: , – множество всех тупиковых σ-покрытий матрицы , – множество всех σ-подматриц матрицы L; Br(L, σ), $L \in \mathfrak{M}_{{mn}}^{k},{{\sigma }} \in E_{k}^{r}$, – множество всех наборов в длины , – множество всех подматриц в $S\left( {L,~\sigma } \right)$ порядка $r;{\text{\;}}B\left( L \right),{\text{\;}}L \in \mathfrak{M}_{{mn}}^{k}$, – совокупность всех тупиковых σ-покрытий матрицы L, в которой каждое покрытие встречается столько раз, сколькими наборами из $E_{k}^{r}$ оно порождается; $S\left( L \right),{\text{\;}}L \in \mathfrak{M}_{{mn}}^{k}$, – совокупность всех σ-подматриц матрицы L для всех σ из $E_{k}^{r}$;
Теорема 3 [3]. Если ${{m}^{a}} \leqslant n \leqslant {{k}^{m}},a > 1,{\text{\;}}k \geqslant 2$, то при n → ∞ для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место
Теорема 4. Если $n \leqslant m \leqslant {{k}^{{{{n}^{{{\beta }}}}}}},{{\beta }} < 1{\text{/}}2,k \geqslant 2$, то при n → ∞ для почти всех матриц L из $\mathfrak{M}_{{mn}}^{k}$ имеет место
Схема доказательства теоремы 4 аналогична схеме доказательства теоремы 2.
Таким образом, в каждом из двух рассмотренных случаев почти всегда типичная длина набора из U(L) и типичная длина набора из B(L) принадлежат одному интервалу. Результаты теорем 1, 3 и теорем 2, 4 проиллюстрированы ниже соответственно на рис. 1, 2.
Заключение. Рассмотрены актуальные вопросы логического анализа целочисленных данных, касающиеся исследования метрических (количественных) свойств множеств частых и нечастых элементов таких данных. Усовершенствована техника получения оценок для типичных значений основных числовых характеристик указанных множеств и найдены новые оценки таких характеристик. Приведено теоретическое обоснование целесообразности (в плане сокращения временных затрат) применения методов поиска частых элементов на этапе обучения классификаторов, базирующихся на логическом анализе обучающей выборки.
Результаты проведенного в работе исследования важны и для ряда других прикладных областей, среди которых следует выделить нахождение в данных ассоциативных правил. В этом случае D называют базой данных, а каждый объект базы D – транзакцией. Ассоциативное правило устанавливает зависимость между двумя частыми ЭФ, согласно которой один частый ЭФ (посылка) с некоторой “достоверностью” влечет другой частый ЭФ (следствие). При этом посылка и следствие порождаются одним общим частым ЭФ. Вопросы синтеза ассоциативных правил возникли в связи с анализом потребительской корзины [11].
Список литературы
Баскакова Л.В., Журавлев Ю.И. Модель распознающих алгоритмов с представительными наборами и системами опорных множеств // ЖВМ и МФ. 1981. Т. 21. № 5. С. 1264–1275.
Hammer P.L. Partially Defined Boolean Functions and Cause-effect Relationships // Lecture at the Intern. Conf. on Multi-Attrubute Decision Making Via ORBased Expert Systems. Passau, Germany: University of Passau, 1986.
Дюкова Е.В., Журавлев Ю.И. Дискретный анализ признаковых описаний в задачах распознавания большой размерности // ЖВМ и МФ. 2000. Т. 40. № 8. С. 1264–1278.
Дюкова Е.В., Песков Н.В. Поиск информативных фрагментов описаний объектов в дискретных процедурах распознавания // ЖВМ и МФ. 2002. Т. 42. № 5. С. 741–753.
Журавлев Ю.И., Рязанов В.В., Сенько О.В. Распознавание. Математические методы. Программная система. Практические применения. М.: ФАЗИС, 2006. 159 с.
Dragunov N., Djukova E. and Djukova A. Supervised Classification and Finding Frequent Elements in Data // VIII Intern. Conf. on Information Technology and Nanotechnology (ITNT-2022). Samara, Russian Federation: IEEE, 2022. P. 1–5.
Дюкова Е.В., Дюкова А.П. О сложности обучения логических процедур классификации // Информатика и ее применения. 2022. Т. 16. Вып. 4. С. 57–62.
Андреев А.Е. Об асимптотическом поведении числа тупиковых тестов и длины минимального теста для почти всех таблиц // Пробл. кибернетики. 1984. Вып. 41. С. 117–142.
Дюкова Е.В., Сотнезов Р.М. Асимптотические оценки числа решений задачи дуализации и ее обобщений // ЖВМ и МФ. 2011. Т. 51. № 8. С. 1431–1440.
Носков В.Н., Слепян В.А. О числе тупиковых тестов для одного класса таблиц // Кибернетика. 1972. № 1. С. 60–65.
Aggarwal Charu C. Frequent Pattern Mining. N. Y.: Springer International Publishing, 2014. 469 p. (https://www.charuaggarwal.net/freqbook.pdf).
Дополнительные материалы отсутствуют.
Инструменты
Известия РАН. Теория и системы управления