Понятие и предмет теории вероятностей. Основные понятия теории вероятностей

ч. 1

  1. Понятие и предмет теории вероятностей. Основные понятия теории вероятностей (эксперимент, исход, случайное событие, вероятность). Пространство элементарных исходов.

Теория вероятностей есть математическая наука, изучающая закономерности в случайных явлениях.

Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий.

Испытанием называется эмпирическое наблюдение, тестирование, проведение эксперимента. В результате испытаний получаются исходы.

Случайным событием (просто событием) называется любой факт, который в результате может произойти или не произойти.

Вероятность — степень (мера, количественная оценка) возможности наступления некоторого события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае — невероятным или маловероятным.

Элементарным исходом называют любой простейший (т.е. неделимый в рамках данного опыта) исход опыта. Пространство элементарных исходов включает все элементарные исходы, кот. могут произойти в результате испытания.



  1. Элементы комбинаторики.

Комбинаторика – часть математики, которая занимается методами решения задач, связанных с перечислением и подсчетом.

Выбор с повторением. Из множества, содержащего m элементов, нужно выбрать k элементов, причем выбранный элемент, после того, как его взяли, вновь возвращается в исходное множество (то есть элементы в выбранном множестве могут повторяться). http://edu.dvgups.ru/metdoc/enf/vmatem/semestr4/4.1.files/image001.gif

Размещение без повторений (порядок важен). Из множества, содержащего m различных элементов, надо выбрать упорядоченное подмножество из k элементов (k Є m), то есть такое подмножество, в котором элементы располагаются в определенном порядке, и изменение порядка элементов изменяет подмножество. Кроме этого, элементы в выбранном подмножестве не повторяются.

http://edu.dvgups.ru/metdoc/enf/vmatem/semestr4/4.1.files/image003.gif.

Перестановки. Сколькими способами n разных объектов может быть расположены на одной линии?

Сочетания (порядок не важен). Пусть из множества, содержащего m различных элементов, требуется выбрать подмножество, содержащее k различных элементов (k Є m). Получаемые при этом подмножества не упорядочены.

http://edu.dvgups.ru/metdoc/enf/vmatem/semestr4/4.1.files/image007.gif


  1. Определения вероятности события (классическое и статистическое), сфера и условия их применения.


Вероятостью (классическое определение) события А называется отношение числа благоприятных исходов к общему числу элементарных исходов. P(A)= m/n. m- число благоприятных исходов, n - общее число элементарных исходов.

Свойство вероятности:



  1. Вер-ть достоверного события = 1

  2. Вер-ть невозможного события = 0

  3. Вер-ть любого события не может быть меньше 0 и больше 1.

Вероятность (статическое опр-е) события А – предельная, относительная частота появления события А при проведении серии испытаний, при неограниченном увеличении их числа.

s - число испытаний, в котором произошло событие А

n – общее число испытаний

Субъективная вероятность (субъективное определение) основана на индивидуальном или коллективном мнении людей, выступающих в роли экспертов. Она отражает степень уверенности индивида или групп, что данное событае произойдет.



  1. Классификация событий. Примеры событий различных видов. Полная группа событий. Достоверным называется такое событие, которое в результате опыта непременно должно произойти.Пример. Выпадение не менее одного очка при бросании шестигранной игральной кости. Невозможным называется событие, которое не может иметь места в данном опыте. Пример. Выпадение более 6 очков при однократном бросании шестигранной игральной кости. Возможным или случайным называется событие, которое может появиться в результате опыта, но может и не появиться. Пример. бросание игральной кости: случайное событие — выпавшее число чётно; события «Выпала 1», «Выпала 2» и т. д. — элементарные исходы эксперимента; совокупность всех событий «Выпала 1»..«Выпала 6» — полная группа событий. Два или несколько событий  называются  равновозможными, если нет оснований утверждать, что одно из них объективно имеет больше данных появиться в итоге опыта по сравнению с другими. Например, выпадение герба и выпадение цифры при однократном бросании монеты. События называются несовместимыми, если появление какого-либо одного из них в данном опыте исключает возможность появления других. Например, выпадения 3 и 5 очков вместе при однократном бросании игральной кости (может выпасть либо 3, либо 5 очков). События называются совместимыми, если появление одного из них в данном опыте не исключает возможности появления других.Пример. Выпадение 3 и 5 очков при двукратном бросании игральной кости.

Группа событий, из которых хотя бы одно непременно должно произойти в данном опыте, называется полной группой событий. Вероятностей всех событий в группе всегда = 1. Пример. Попадание и непопадание в мишень при выстреле. События, составляющие полную группу, называются единственно возможными в данном опыте событиями (никакие другие события   в  данном опыте произойти не могут). Два единственно возможных и несовместимых события называются противоположными. Пример. Отказ и безотказная работа радиостанции в данный момент времени.
5. Аксиомы (принципы) суммы и произведения в теории вероятностей с примерами.

Сложение вероятностей:

Для несовместных событий:



Р(А+В)=Р(А)+Р(В) –сумма несовместных событий А и В называется сумма вероятностей этих событий.

Для совместных событий:



Р(А+В)=Р(А)+Р(В)-Р(АВ)сумма совместных событий А и В называется сумма вероятностей этих событий минус произведение этих событий.

Противоположные события включают все элементарные исходы, которые не включают событие А.



Умножение вероятностей:

Для независимых событий:



Р(АВ)=Р(А)*Р(В)

Условная вероятность называется событие В при условии, что событие А наступило. Р(В/А)

Для ззависимых событий:

Р(АВ)=Р(А)*Р(В/А)

Формула условной вероятности:



Р(В/А)=Р(АВ)/Р(А)

Формула полной вероятности:

Если событие Н1 и Н2 образуют полную группу событий, вероятность случайного события А находится по формуле полной вероятности:

Р(А)=Р(Н1)*Р(А/Н1)+Р(Н2)*Р(А/Н2)
6.      Основные операции алгебры событий (сумма, произведение). Взаимосвязь операций над событиями с операциями над множествами.
Сумма событий (А+В) – событие, состоящее в том, что произошло хотя бы одно из них.

Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий. Например, если А — деталь годная, В — деталь окрашенная, то АВ — деталь годна и окрашена.

Операции и отношения между событиями:








  • (отношение включения множеств: множество является подмножеством множества ) - событие A влечет за собой событие В. Иначе говоря, событие В происходит всякий раз, как происходит событие A.

  • (отношение эквивалентности множеств) - событие тождественно или эквивалентно событию . Это возможно в том и только в том случае, когда и одновременно , т.е. каждое из них происходит всякий раз, когда происходит другое.





7.      Теоремы сложения вероятностей с примерами.

Теорема:

Вероятность суммы несовместных событий равна сумме вероятности этих двух событий. p(A+B)=p(A)+p(B)

Следствия: Если события образуют полную группу, то сумма их вероятностей =1.

Пример 1. В урне 30 шаров: 10 красных, 5 синих и 15 белых. Найти вероятность появления цветного шара.

Р е ш е н и е. Появление цветного шара означает появление либо красного, либо синего шара.

Вероятность появления красного шара (событие А)

Р (А) = 10 / 30 = 1 / 3.

Вероятность появления синего шара (событие В)

Р (В) = 5 / 30 = 1 / 6.

События А и В несовместны (появление шара одного цвета исключает появление шара другого цвета), поэтому теорема сложения применима.

Искомая вероятность

P (A + B) = P (A) + P (B) = l / 3 + l / 6 = l / 2.



Теорема:

Вероятность суммы совместных событий равна сумма их вероятностей без учета их совместного появления. p(A+B)=p(A)+p(B)p(AB) 

Пример. Если вероятность поступления в магазин одного вида товара равна P(A) = 0,4, а второго товара — P(B) = 0,5, и если допустить, что эти события независимы, но совместны, то вероятность суммы событий равна

P(A+B) = 0,4 + 0,5 — 0,4×0,5 = 0,7.


8.      Теорема умножения вероятностей с примерами.

Теорема:

Произведение несовместных событий равно произведению их вероятностей.



p(ab) = p(a) \cdot p(b)

Пример. Вероятности попадания в цель при стрельбе первого и второго орудий соответственно равны: р1=0,7; р2=0,8. Найти вероятность попадания при одном залпе обоими орудиями одновременно.



Решение: как мы уже видели события А (попадание первого орудия) и В (попадание второго орудия) независимы, т.е. Р(АВ)=Р(А)*Р(В)=р12=0,56.

Теорема:


Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место

P(AB) = P(A)×P(B/A) = P(B)×P(A/B).

Пример. На склад поступило 35 холодильников. Известно, что 5 холодильников с дефектами, но неизвестно, какие это холодильники. Найти вероятность того, что два взятых наугад холодильника будут с дефектами.

Решение. Вероятность того, что первый выбранный холодильник будет с дефектом, находится как отношение числа благоприятствующих исходов к общему числу возможных исходов

P(A) = 5/35 = 1/7.

Но после того, как был взят первый холодильник с дефектом, условная вероятность того, что и второй будет с дефектом, определяется на основе соотношения



http://chart.apis.google.com/chart?cht=tx&chl=p%28b/a%29%20=%20d_x%20=%20npq

Искомая вероятность будет



http://chart.apis.google.com/chart?cht=tx&chl=p%28ab%29%20=%20p%28a%29*p%28b/a%29%20=%20%5cfrac%20%7b1*2%7d%7b7*17%7d%20=%200,02

9.      Формула полной вероятности и формула Байеса. Априорные и апостериорные вероятности.

Пусть событие А может наступить только вместе с одним из событий Н1 и Н2, образующих полную группу событий и имеющих соответственно вероятности Р(Н1),Р(Н2). Если Р(А/H1), Р(А/H2) – условные вероятности события А при условии, что Н1 и Н2 наступили, то тогда вероятность Р(А) события А равна сумме произведений вероятностей событий Н на соответствующие условные вероятности Р(А/H).



Р(А) = Р(Н1)Р(А/H1) + )Р(Н2)Р(А/H2).

Теорема Байеса.

Пусть событие А может наступить только вместе с одним из событий Н1 и Н2, образующих полную группы и имеющих соответственно вероятности Р(Н1),Р(Н2). Если Р(А/H1), Р(А/H2) – условные вероятности события А при условии, что Н1 и Н2 наступили, то тогда вероятности Н1 и Н2 при условии, что событие А наступило находится по формулам:



Р(Н1/A)= P(H1)P(A/H1)/Р(Н1)Р(А/H1) + Р(Н2)Р(А/H2).

Априорная вероятность содержит в себе исходные предположения о вероятности той или иной гипотезы.

Апостериорная вероятность поправляет исходные предположения с учетом сделанных наблюдений.

При большом числе наблюдений апостериорная вероятность практически не зависит от априорной вероятности.

При малой статистике разумный выбор априорной вероятности представляет собой основную проблему при применении баейсовского вывода.
10.  Схемы повторных независимых испытаний. Формулы Бернулли и Пуассона.

На практике приходится сталкиваться с такими задачами, которые можно представить в виде многократно повторяющихся испытаний, в результате каждого из которых может появиться или не появиться событие A. При этом интерес представляет исход не каждого "отдельного испытания, а общее количество появлений события A в результате определенного количества испытаний. В подобных задачах нужно уметь определять вероятность любого числа m появлений события A в результате n испытаний. Рассмотрим случай, когда испытания являются независимыми и вероятность появления события A в каждом испытании постоянна. Такие испытания называются повторными независимыми.



Формула Бернули



Формула Пуассона

Если вероятность p наступления события A в каждом испытании постоянна, но мала, число независимых испытаний n достаточно велико, но значение произведения np остается небольшим (не больше десяти), то вероятность того, что в этих испытаниях событие Анаступит mраз,



p_{m,n}\approx\frac{\lambda^m}{m!}\,e^{-\lambda}.

11.  Дискретные случайные величины.

Случайная величина — это величина, которая принимает в результате опыта одно из множества значений, причём появление того или иного значения этой величины до её измерения нельзя точно предсказать.

Дискретной случайной величиной называется величина, которая принимает конечное или бесконечное счетное множество значений.

Для дискретной случайной величины Х функция f(x)=P(X=x), заданная для каждого значения х, называется законом распределения вероятностей для случайной величины Х.

Из аксиом вероятностей следует, что функция f(x) может быть законом распределения случайной величины Х тогда, и только тогда, когда выполняются следующие условия:

http://kurs.ido.tpu.ru/courses/theory_ver/tema6/f137.gifдля каждого возможного значения Х.

http://kurs.ido.tpu.ru/courses/theory_ver/tema6/f138.gif, суммирование для всех возможных значений Х.
12.  Математическое ожидание случайной величины и его свойства.

Математическое ожидание дискретной случайной величины - это сумма парных произведений всех возможных ее значений на соответствующие вероятности.

Математическое ожидание случайной величины есть величина постоянная и поэтому представляет числовую характеристику случайной величины .

Для дискретной случайной величины:

Вероятностный смысл математического ожидания: математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины.



Свойства математического ожидания

  1. Мат ожидание постоянной величины равно этой величине. MC=C

  2. Мат ожидание суммы двух (или нескольких) случайных величин и равно сумме их математических ожиданий. M(x+y)=M(x)+M(y)

  3. Мат ожидание произведения двух независимых случайных величин и равно произведению их математических ожиданий. M(xy)=M(x)*M(y)


13.  Дисперсия случайной величины и ее свойства. Стандартное (среднее квадратическое) отклонение.

Дисперсия случайной величины характеризует степень рассеивания (разброса) значений случайной величины относительно ее математического ожидания. Дисперсия СВ (как дискретной, так и непрерывной) есть неслучайная (постоянная) величина.

d[x] = m[x^2] - \left(m[x]\right)^2;

Свойства:

  1. Дисперсия постоянной величины с равна нулю. D(C)=0

  2. Постоянный множитель можно выносить за знак дисперсии, возведя в квадрат. D(Cx)=C2D(x)

  3. Дисперсия суммы независимых случайных величин = сумме дисперсий. D(x+y)=D(x)+D(y)

Средним квадратическим отклонением (СКО) СВ X называется характеристика [image][image].СКО характеризует ширину диапазона значений СВ.
14.  Непрерывные случайные величины.

Непрерывной случайной величиной называется случайная величина, которая может принять любое значение из заданного числового отрезка.

Вероятность любого отдельного значения непрерывной случайной величины = 0. Для непрерывной величины важно рассматривать вероятность, что она окажется в интервале.

Непрерывными случайными величинами называют еще величины, функция распределения которых везде непрерывна.
15.  Функция и плотность распределения вероятностей.

Функцией распределения называют функцию , определяющую вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х, т.е.

F(x)=P(X

Свойства функции распределения:



  1. Значения функции распределения принадлежит отрезку [0;1]: 0≤F(x)≤1

  2. F(x) - неубывающая функция

  3. Ф-я распределения от +∞ =1. F(+∞)=1

  4. Ф-я распределения от - ∞=0. F(-∞)=0

  5. Вер-ть попадания случайной величины в интервал (a,b) =приращению ф-и распределения на этом интервале:

P(aДля задания закона распределения непрерывной случайной величины используется функция



f(x) = F (x), которая называется плотностью вероятности и которая является производной от функции распределения. Поэтому ее еще называют дифференциальной функцией, а функцию распределения называют интегральной функцией.

Кривая, изображающая плотность распределения, называется кривой распределения



Св-ва плотности:

  1. Плотность распределения есть непрерывная ф-я

  2. Площадь под графиком плотности распр-я =1

  3. Вер-ть попадания случайной величины в интервал (a,b) = опр-ому интегралу от плотности в пределах от а до b/


16.  Числовые характеристики непрерывных случайных величин и методы их нахождения.

Мат. Ожидание:



Дисперсия:



Стандартное отклонение:





17.  Понятие закона распределения случайной величины. Биномиальный и нормальный законы распределения. 

Соответствие между возможными значениями случайной величины и их вероятностями называют законом распределения дискретной случайной величины.

Закон распределения можно задать в виде таблицы, формулы или графически.

Биномиальным распределение – распр-е количества «успехов» в последовательности из n  независимых  случайных экспериментов, таких, что вероятность  «успеха» в каждом из них постоянна и равна. Определяется формулой Бернулли:



Нормальное распределение (распределение Гаусса). Непрерывная случайная величина имеет нормальное распределение, если ее пл-ть задается выраж:

 f(x) = \tfrac{1}{\sigma\sqrt{2\pi}}\; e^{ -\frac{(x-\mu)^2}{2\sigma^2} },

где параметр μ — мат ожидание, а параметр σ - стандартное отклонение (σ² — дисперсия).

Ф-я распределения для норм закона:



Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1.

18. Функция Лапласа. Правило трех сигм.

Ф-я распределения для стандартного нормального распр-я:

С ней связана ф-я Лапласа (ф-я ошибок). Ее значения приведены в спец. таблице (принимает значения от 0 до 0,5):



Вероятность попадания случайной величины в интервал:





Св-ва распр-я:

  1. Для отриц аргум: Ф(-х)=1-Ф(х)

  2. При х→+∞ Ф(х) возрастает и → к 1.

  3. При х→-∞ Ф(х) убывает и → к 0.

Правило «3х сигм»

Вероятность, что х, распределенный по нормальному закону, отклонится от своего мат ожидания влево или вправо не больше 3δ=0,9973.

Следствия:


  1. Площаль под кривой норм распр-я на интервале от µ-δ до µ+δ составляет 68,27% всей площади. На этом интервале сосредоточено 68,27% всех значений случайной величины

  2. µ-2δ до µ+2δ составляет 95, 45%

  3. µ-3δ до µ+3δ составляет 99,73%


19. Выборка и её представление. Распределение частот.

Выборка – максимальное количество параметров, соответствующих генеральной совокупности.

Чем больше объем выборки, тем больше она соответствует репрезентативной выборке.



Частота – количество наблюдений, в кот. признак принимает опр значение или находится в опр интервале.

Распределение частот показ частоты во взаимосвязи с рез-тами наблюдения.

Если признак измеряется номинальной или порядковой шкалой, получ. категориальное распределение частот (дискретный признак), если измеряется числовой шкалой, получ интервальное распр-е частот (непрерывный признак). Интервальное распр-е частот сост из некоторого кол-ва интервалов = длины, на кот делится весь диапозон признака и соотв этим интервалам частот.

Формула Стерджесса (найти оптим кол-во интервалов). n=1+3,322*lg(N). N- объем выборков.

Модальный интервал – интервал с большей частотой.

Относит частоты – отнош части к целому. Доля = часть/целое.



Представление: Таблица, гистограмма частот – графич представление кот показ распр-е переменной(бывает абсолютной(кол-во) и относит(%)), полигон (ломанная), кумулята (кривая накоп. частоты), круговая диаграмма.
20. Эмпирическая функция распределения. Полигон распределения и гистограмма частот.

Эмпирической функцией выборки (функцией распределения выборки) называется функция



    Fn(x)=

nx




n







 

, которую можно записать в следующем виде:


http://ritos.ucoz.ru/_pu/3/92798571.png 

  Данная функция непрерывная, кусочно-постоянна и изменяется в каждой точке хi, гдехi — варианта рассматриваемого статистического распределения. 



Полигон (для дискретной случайной величины) - ломаная, соединяющая точки (хi, ni — полигон 
частот или точки (хi, wi) — полигон относительных частот.

http://ritos.ucoz.ru/_pu/3/44951032.png

Гистограмма — ступенчатая фигура, состоящая из прямоугольников, основаниями которых являются отрезки длиной xi-xi-1, а их высоты равны:

     

ni 




n(xi-xi-1)







  

  Если объем выборки из генеральной совокупности случайной непрерывной величины велик, то прибегают к предварительной группировке данных: размах выборки разбивают на k частичных интервалов Ji. Количество интервалов подсчитывается по формуле: 

  k=log2n+1

  Подсчитывается, сколько значений из n1, n2,...,nm попало в каждый из к интервалов. Вариантами для выборки считают середины этих интервалов. 

  Эмпирической плотностью распределения выборки:

http://ritos.ucoz.ru/_pu/3/27586805.png

http://ritos.ucoz.ru/_pu/3/26623889.png
21.  Выборочная средняя и выборочная дисперсия.

Выборочное среднее – наз среднее арифметич выборки, т е сумму всех знач выборки деленную на ее объем.



-сумма всех знач выборки, n – объем выборки

Св-ва среднего:

1)вычисл только в числовых шкалах

2)при вычислении необходимо исп-ть все данные

3)для каждого данных имеется только 1 среднее

4)среднее есть единств мера центральной тенденции, для кот сумма отклонений кажд знач = 0.

Среднее для сгруппированных данных:



Среднее для интервального распр-я (тоже самое что и для сгруп дан., только вместо f*x стоит (f*m) – сумма произвед частот)



Дисперсия выборки – среднее арифметич квадратное отклонений значений выборки от выборочного среднего.

Дисперсия для сгруп данных



Стандартное отклонение:


22. Предмет и задачи теории статистики. Статистическое наблюдение. Выборка и генеральная совокупность

Предметом статистики является изучение количественной стороны массовых социально-экономических процессов.

Задачи:

  1. разработка системы показателей, характеризующих процессы воспроизводства, масштабы, темпы, уровни и пропорции развития, структуру народного хозяйства, социальную структуру общества и методологии их измерений;

  2. разработка методов расчета и сравнительного анализа социально-экономических показателей.

Статистическое наблюдение — это массовое планомерное (проводится по разработанному плану, включающему вопросы методологии, организации сбора и контроля достоверности информации), систематическое, научно организованное наблюдение за явлениями и процессами социально-экономической жизни, которое заключается в сборе и регистрации отдельных признаков у каждой единицы совокупности.

Выборка – максимальное количество параметров, соответствующих генеральной совокупности.

Чем больше объем выборки, тем больше она соответствует репрезентативной выборке.

Под генеральной совокупностью понимают множество всех возможных значений случайной величины.
23. Точечные оценки параметров распределения и их свойства.

Точечной оценкой наз число, кот. исп-ся в кач-ве оценки параметра ген совокупности.

Ошибкой оценки наз разность между оцениваемым параметром ген совокупности и оценкой, рассчитанной на основе выборки.



Св-ва точечных оценок:

  • Несмещенность оценки означает, что ее мат ожидание = значению оцениваемого параметра ген совокупности.

  • Эффективность ценки означает, что статистика, исп-ая в кач-ве точечной оценки пар-ра ген совокупности имеет мин стандартную ошибку.

  • Состоятельность оценки означ, что по мере увеличения объема выборки ее значения приближ к знач оцениваемого пар-ра ген совокупности.

  • Выборочное среднее хср явл несмещенной оценкой мат ожидания ген совокупности М(х)

  • Выборочная дисперсия d явл смещенной оценкой дисперсии ген совокупности D(x)

Для приведения выборочной дисперсии несмещенной исп-ют поправочный множитель:

Исправленное среднеквадратич отклонение:




24. Доверительное оценивание. Надежность. Доверительные интервалы и общий алгоритм их построения.

Доверит интервал для среднего.

Цель: оценить сред для ген совокуп имеющ норм закон распр-я с пар-рами µ,σ

Имеем случайную выборку объема n из ген совокуп. Стандартное отклонение σ предполагается известным или объем выборки n≥30.

Требуется: построить доверит интервал для среднего.

хср, в – Е<µ< хср, в + Е

E – точность оценки

Доверит вер-ть(надежность) представляет собой площадь под графиком.

1-α=γ

α- уровень значимости\ ошибка оценки



γ-надежность.

Доверит интервал – среднее ген совокупности, имеющий нормальный з-н распр-я, с доверит вер-ю 1-α нах-ся в доверит интервале

Точность интервальной оценки:

E=

Последовательность действий:

1)По выборке вычислить выборочное среднее

2)По таблице нормального закона найти Z- значение для доверит вер-ти

3)Вычислить точность интервальной оценки по формуле E=

4)Подставить получ значения в формулу для доверит интервала:

5)Ответ.
25. Доверительные интервалы для математического ожидания.

Доверительный интервал для оценки математического ожидания случайной выличины Х с заданной надежностью γ в случае нормального закона распределения опр на основе неравенств:

,где


Z-значение аргумента ф-и Лапласа, с учетом того, что Ф(z)=γ/2

σ – среднеквадратическое отклонение или его оценка



n- объем выборки
ч. 1