Условные вероятности появления

Как мы видели, появление отдельной единицы (звука или буквы, единицы выражения, слова и т. п.) может быть полностью или частично детерминировано контекстом. Теперь мы должны внести ясность в понятие контекстуальной детерминированности (или обусловленности) и вывести те импликации, которые оно имеет для лингвистической теории. Для простоты мы сначала ограничим свое внимание рассмотрением контекстуальной детерминированности, действующей в пределах синтагматически связанных единиц одного уровня языковой структуры; другими словами, мы в данный момент пренебрежем тем очень важным моментом, что комплексы единиц низшего уровня реализуют единицы высшего уровня, которые сами имеют контекстуально детерминированные вероятности.

Мы будем употреблять символы х и у как переменные, каждая из которых обозначает отдельную единицу или синтагматически связанную группу единиц; кроме того, мы допустим, что х и у сами находятся в синтагматической связи. (Например, на уровне единиц выражения х может обозначать /b/ или /b/ + /i/, а у — /t/ или /i/ + /t/; на уровне слов х может обозначать men 'мужчины' или old 'старые' + men, а у — sing 'петь' или sing + beautifully 'прекрасно'.) Как х, так и у имеют среднюю a priori вероятность появления — рх и ру соответственно. Подобным образом сочетание х + у имеет среднюю вероятность появления, которую мы обозначим как pху.

В предельном случае статистической независимости между х и у вероятность сочетания х + у будет равна произведению вероятностей х и у: рху = рх × ру. Этот фундаментальный принцип теории вероятности можно проиллюстрировать посредством простого числового примера. Рассмотрим числа от 10 до 39 (включительно) и обозначим через х и у цифры 2 и 7 в первой и второй позиции их десятичного представления: сочетание x и у будет, таким образом, обозначать число 27. В пределах рассматриваемого ряда чисел (исходя из предположения, что все 30 чисел равновероятны) рх = 1/3 и py = 1/10. Если бы мы «задумали число между 10 и 39» и попросили бы кого-нибудь отгадать задуманное число, его шанс угадать правильно (без помощи другой информации) был бы один из тридцати: рхy = 1/30. Но допустим, что мы сказали ему, что это число кратно 3. Ясно, что его шанс правильно отгадать вырастает до 1/10. С нашей точки зрения, более существенно (поскольку мы рассматриваем вероятность появления одного знака в контексте другого) то, что выбор одного из двух знаков не является больше статистически независимым от выбора другого. Вероятность у, если дано, что х = 2, равна 1/3, поскольку только три числа кратны 3 в данном ряду (21, 24, 27); а вероятность x, если дано, что у = 7, равна 1, поскольку только одно число в пределах данного ряда оканчивается на 7 и кратно 3. Можно обозначить эти равенства как py (x) = 1/3 и рх (у) = 1. Условная вероятность появления у в контексте х равна 1/3, а условная вероятность х при данном у равна 1. (Два выражения «в контексте» и «при данном» следует понимать как эквивалентные; оба употребительны в работах по статистической лингвистике.) Обобщая этот пример: если рх (у) = рх (то есть если вероятность х в контексте у равна его априорной, необусловленной, вероятности), то х является статистически независимым от у; если же вероятность появления х увеличивается или уменьшается с появлением у, то есть если рх (у) > рх или рх (у) > рх, то х «положительно» или «отрицательно» обусловлен у. Крайним случаем «положительной» обусловленности является, конечно, полная избыточность при рх (у) = 1 (у предполагает х), а крайним случаем «отрицательной» обусловленности — «невозможность», то есть рх (у) = 0 (у исключает х). Важно иметь в виду, что контекстуальная обусловленность может быть и «положительной» и «отрицательной» (в том смысле, в каком эти термины здесь употребляются), а также что вероятность х при данном у не всегда, а точнее, лишь в редких случаях, равна вероятности у при данном х.

Необходимым условием того, чтобы результаты какого бы то ни было статистического исследования представляли интерес для лингвистики, является разграничение между различными видами обусловленности. Как мы видели выше, синтагматические отношения могут быть линейными или нелинейными; поэтому и обусловленность может быть линейной или нелинейной. Если х и у линейно связаны, то при любой рх (у) мы имеем дело с прогрессивной обусловленностью в тех случаях, когда у предшествует х, и с регрессивной в тех случаях, когда у следует за х. Независимо от того, является ли обусловленность прогрессивной или регрессивной, х и у могут непосредственно соседствовать (находиться рядом в линейно упорядоченном синтагматическом комплексе); в этом случае, если х обусловлен у, мы говорим о переходной (transitional) обусловленности. Многие популярные описания статистической структуры языка склонны изображать дело так, будто условные вероятности, действующие на всех уровнях языковой структуры, непременно предполагают линейную, переходную и прогрессивную обусловленность. Это, разуме ется, не так. Например, условная вероятность появления определенного существительного в качестве субъекта или объекта при определенном глаголе в латыни не зависит от относительного порядка, с каким слова встречаются во временной последовательности (ср. § 2.3.5); употребление префиксов un- и in- в английском языке (в таких словах, как unchanging 'неизменный' и invariable 'неизменный') регрессивно обусловлено; возможность появления определенной единицы выражения в начале слова может быть «положительно» или «отрицательно» обусловлена наличием некоторой единицы выражения в конце слова (или наоборот) и т. д.

Конечно, в принципе можно подсчитать условную вероятность любой единицы относительно любого контекста. Существенно, однако, правильно выбрать контекст и направление обусловленности (то есть, скажем, подсчитывать рх (у), а не рy (x)) в свете того, что уже известно об общей синтагматической структуре языка. (Определенный класс единиц X может предполагать или допускать появление единиц другого, синтагматически связанного с ним класса Y на определенном по отношению к нему месте (и может также исключать возможность появления единиц третьего класса Z). При условии, что это так, можно подсчитать условную вероятность отдельного члена класса Y). Результаты будут иметь статистический интерес тогда, и только тогда, когда рх (у) или рy (x) будут существенно отличаться от рх и рy.

2.4.9. ПОЗИЦИОННЫЕ ВЕРОЯТНОСТИ АНГЛИЙСКИХ СОГЛАСНЫХ *

Вероятности можно также подсчитывать для отдельных структурных позиций. Например, в таблице 4 для каждого из 12 согласных устной английской речи приводятся 3 ряда вероятностей: (i) априорная вероятность, средняя для всех позиций; (ii) вероятность в позиции начала слова перед гласными; (iii) вероятность в позиции конца слова после гласных.

Таблица 4

Вероятности некоторых английских согласных в различных позициях в слове

  «Абсолютная» Начальная Конечная
[t] 0,070 0,072 0,105
[n] 0,063 0,042 0,127
[l] 0,052 0,034 0,034
[d] 0,030 0,037 0,039
[h] 0,026 0,065 -
[m] 0,026 0,058 0,036
[k] 0,025 0,046 0,014
[v] 0,019 0,010 0,048
[f] 0,017 0,044 0,010
[b] 0,016 0,061 0,0005
[p] 0,016 0,020 0,008
[g] 0,015 0,027 0,002

Можно заметить существенные различия частотностей отдельных согласных в разных позициях в слове. Например, из перечисленных единиц [v] — наименее частая в позиции начала слова, но третья по частотности в позиции конца слова; с другой стороны, [b] — третья по частотности единица в начальной позиции слова, но наименее частая в позиции конца слова (за исключением [h], который вообще не встречается на конце. NB: мы говорим о звуках, а не буквах). Другие (как [t]) имеют высокую вероятность или (как [g] и [р]) низкую вероятность для обеих позиций. Также заметим, что диапазон колебаний между наивысшей и наименьшей вероятностью больше для конца слова, чем для начала. Факты этого рода получают отражение в описании статистической структуры фонологических слов английского языка.

Выше мы говорили (в связи с «законом Ципфа»; см. § 2.4.6), что число звуков или букв в слове не является непосредственной мерой его синтагматической длины, определяемой в терминах теории информации. Причина этого, конечно, в том, что не все звуки или буквы равновероятны в одном контексте. Если бы вероятность фонологического или орфографического слова была прямо связана с вероятностями составляющих его элементов выражения, можно было бы получить вероятность слова перемножением вероятностей элементов выражения для каждой структурной позиции в слове. Например, если х в два раза вероятнее у в начальной позиции, а а вдвое вероятнее b в конечной позиции, можно ожидать, что хра будет встречаться в два раза чаще, чем yra или xpb, и в четыре раза чаще, чем ypb. Но это предположение не оправдывается в конкретных случаях, что ясно из рассмотрения нескольких английских слов. Элементы выражения, реализуемые посредством [k] и [f], более или менее равновероятны в начале слова, но слово call встречается намного чаще, чем fall (как показывают различные опубликованные частотные списки для английских слов); хотя элемент, реализуемый посредством [t], имеет вероятность появления в конечной позиции слова почти в 50 раз большую, чем вероятность элемента, реализуемого посредством [g], слово big встречается примерно в 4 раза чаще, чем bit, и т. д.

Вероятности для начальной и конечной позиций, используемые для этих расчетов (см. табл. 4), основаны на анализе связного текста. Это означает, что частота появления определенного согласного, встречающегося в относительно небольшом количестве высокочастотных слов, может превысить частоту появления другого согласного, встречающегося в очень большом количестве низкочастотных слов (ср. замечания, сделанные в § 2.4.1 в связи с понятием «функциональной нагрузки»). Согласный [ð], который встречается в начале таких английских слов, как the, then, their, them и т. д., иллюстрирует эффект такого перевеса. В начальной позиции это наиболее частый из всех согласных с вероятностью около 0,10 (ср. вероятность 0,072 для [t], 0,046 для [k] и т. д.). Но этот согласный встречается только в горсточке разных слов (менее чем в тридцати в современном языке). Напротив, начальное [k] мы находим во многих сотнях разных слов, хотя вероятность его появления в связном тексте более чем в два раза меньше, чем вероятность появления [ð]. Сравнение всех английских слов, реализуемых как согласный + гласный + согласный (что само по себе является весьма обычной структурой для английских фонологических слов), показывает, что вообще существует больше слов с высокочастотным начальным и конечным согласным, чем слов с низкочастотным начальным и конечным согласным, и что первые к тому же обычно имеют большую частоту появления. В то же время следует подчеркнуть, что некоторые слова значительно более частотны или значительно менее частотны, чем можно было бы предсказать, исходя из вероятностей составляющих их элементов выражения.


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: