Математический Атлас

PDF RU PDF EN
===============================================================================
                    МАТЕМАТИЧЕСКИЙ АТЛАС
===============================================================================
                                                                 Эльдар Ахметов
                                                             eldar566@gmail.com
-------------------------------------------------------------------------------
   Математика — это язык пространств
-------------------------------------------------------------------------------

   Комната, в которой мы сидим — это пространство.
   Множество всех возможных температур в этой комнате — тоже пространство.
   Множество всех функций, описывающих температуру — тоже пространство.

   Математика изучает пространства разных типов и связи между ними.

   Каждый раздел математики — это способ смотреть на пространство:

   +------------------+---------------------------------------------------+
   | РАЗДЕЛ           | ЧТО ВИДИТ В ПРОСТРАНСТВЕ                          |
   +------------------+---------------------------------------------------+
   | Теория множеств  | Только точки, никакой структуры                   |
   | Топология        | Какие точки "близки" (но без чисел-расстояний)    |
   | Метрика          | Расстояния между точками                          |
   | Линейная алгебра | Сложение и умножение на числа                     |
   | Группы           | Симметрии — преобразования, сохраняющие структуру |
   | Многообразия     | Локально похоже на ℝⁿ, глобально искривлено       |
   | Функц. анализ    | Бесконечномерные пространства функций             |
   +------------------+---------------------------------------------------+

   Одно и то же физическое пространство можно изучать всеми способами.
   Разные задачи требуют разных взглядов.

   Это карта математической территории. Атлас показывает связи между разделами.

   Порядок разделов в таблице выше отвечает на вопрос «что раздел видит».
   Ниже в таблице «что добавляется к пространству» порядок другой: он
   соответствует последовательности обогащения — от беднейшей структуры
   к богатейшей, по логике «каркаса» атласа.

-------------------------------------------------------------------------------
   Философия этого атласа
-------------------------------------------------------------------------------

   пустота → границы → пространство → структура → измерение

  +------------------+----------------------------------------------------+
  | РАЗДЕЛ           | ЧТО ДОБАВЛЯЕТСЯ К ПРОСТРАНСТВУ                     |
  +------------------+----------------------------------------------------+
  | Теория множеств  | Ничего. Пыль — точки без связей между собой.       |
  | Топология        | Ткань — понятие "рядом", связность, непрерывность. |
  | Группы           | Подвижность — каталог допустимых движений.         |
  | Метрика          | Твёрдость — числовые расстояния между точками.     |
  | Линейная алгебра | Плоскость — можно складывать и масштабировать.     |
  | Многообразия     | Кривизна — локально плоское, глобально изогнутое.  |
  | Анализ           | Измерение — функции как датчики на пространстве.   |
  +------------------+----------------------------------------------------+

 Во всей математике есть фундаментальное разделение:

   Объект — то, что существует независимо от способа описания.
            (вектор, тензор, многообразие, оператор)

   Наблюдатель — тот, кто выбирает систему координат и записывает числа.
                 (базис, карта, система отсчёта)

   Инвариант — то, о чём договорятся все наблюдатели.
               (длина, угол, ранг, спектр, топологический тип)

-------------------------------------------------------------------------------
 Нотации
-------------------------------------------------------------------------------

 ∈ ∉ ⊂ ⊆      принадлежит, включение         | ∀ ∃ ⇒ ⇔    кванторы, следование
 ∩ ∪ \        пересечение, объединение       | ¬ ∧ ∨      не, и, или
 ℕ ℤ ℚ ℝ ℂ    числовые множества             | ℍ 𝕆        кватернионы, октонионы
 ≅            изоморфизм                     | ⊗ ⊕        тензорное, прямая сумма
 ⟨·,·⟩ ‖·‖     скалярное произведение, норма  | V* Aᵀ A⁻¹  двойственность, транспонирование

-------------------------------------------------------------------------------
 Иерархия пространств — главная схема
-------------------------------------------------------------------------------

                          Множество
                     (точки без структуры)
                             |
           +-----------------+-----------------+
           |                 |                 |
           ▼                 ▼                 ▼
    Топологическое     Алгебраическое    Частичный порядок
     пространство       (группа,            (решётка)
     (близость)          кольцо)
           |                 |
           ▼                 ▼
     Метрическое       Векторное пр-во
     (расстояние)      (сложение, масштаб)
           |                 |
           +---------+-------+
                     |    ← здесь сходятся обе ветви
                     ▼
               Нормированное
           (норма задаёт метрику:
            d(x,y) = ‖x − y‖)
                     |
                 Банахово
                (+ полнота)
                     |
              Гильбертово
          (+ скал. произведение,
           углы между векторами)

         Вторая ветка (от Топологического пространства):

    Топологическое
     пространство
           |
           ▼
       Многообразие
      (локально ≅ ℝⁿ)
           |
     Гладкое многообразие
    (+ дифф. структура)
           |
     Риманово многообразие
    (+ метрический тензор:
     скал. произведение на
     касательном пространстве)

 Связь ветвей:
   Нормированное = Метрическое ∩ Векторное: норма однозначно
   задаёт метрику, и обе структуры совместны.
   Риманово мн-е в каждой точке p имеет скал. произведение
   на TₚM — локально это гильбертова структура.

-------------------------------------------------------------------------------
 Почему матанализ не в начале?
-------------------------------------------------------------------------------

 Традиционное образование: школа → матанализ → всё остальное.
 Этот атлас устроен иначе.

 Матанализ — это анализ на конкретном пространстве ℝⁿ.
 Мы сначала отвечаем: что такое пространство вообще?

   • Топология: что значит "близко" и "непрерывно"
   • Линейная алгебра: что значит "сложить" и "умножить на число"
   • Группы: что значит "симметрия"
   • Многообразия: что значит "локально как ℝⁿ"

 и потом показываем: вот как всё это работает на ℝⁿ (матанализ).

-------------------------------------------------------------------------------
 Одна задача — много языков
-------------------------------------------------------------------------------

 Теплопроводность в стержне. Одна физика, но:

 +-------------+--------------------------------------------------+
 | ЯЗЫК        | КАК ВЫГЛЯДИТ                                     |
 +-------------+--------------------------------------------------+
 | Физика      | Тепло течёт от горячего к холодному              |
 +-------------+--------------------------------------------------+
 | Матанализ   | ∂T/∂t = α·∂²T/∂x²  (уравнение в частных произв.) |
 +-------------+--------------------------------------------------+
 | Фурье       | T(x,t) = Σ cₙe^{−αn²t}sin(nπx/L)                 |
 +-------------+--------------------------------------------------+
 | Функанализ  | dT/dt = AT, где A = α·d²/dx² — оператор в L²     |
 +-------------+--------------------------------------------------+
 | Полугруппы  | T(t) = e^{At}T₀ — однопараметрическая полугруппа |
 +-------------+--------------------------------------------------+
 | Вероятность | Броуновское движение, диффузия частиц            |
 +-------------+--------------------------------------------------+

 Все эти языки описывают одно и то же. Атлас показывает, как переходить
 между ними. Иногда задача проще на одном языке, иногда — на другом.


 Вторая задача — ещё больше языков (течение в трубе)

 Вода течёт по трубе. Какой расход? Какие потери давления?

 +---------------+-----------------------------------------------------+
 | РАЗДЕЛ АТЛАСА | ЧТО ДАЁТ ДЛЯ ЭТОЙ ЗАДАЧИ                            |
 +---------------+-----------------------------------------------------+
 | Векторы       | Скорость v = (v_x, v_y, v_z) — векторное поле       |
 +---------------+-----------------------------------------------------+
 | Тензоры       | Напряжения τᵢⱼ — тензор 2-го ранга                  |
 |               | Связь τ и скорости: τᵢⱼ = μ(∂vᵢ/∂xⱼ + ∂vⱼ/∂xᵢ)      |
 +---------------+-----------------------------------------------------+
 | Формы         | Расход = ∬_S v·dS — интеграл 2-формы *v             |
 +---------------+-----------------------------------------------------+
 | Матанализ     | Уравнение Навье-Стокса:                             |
 |               | ρ(∂v/∂t + (v·∇)v) = −∇p + μ∇²v + ρg                 |
 +---------------+-----------------------------------------------------+
 | Функанализ    | Слабые решения, пространства Соболева W^{1,2}       |
 +---------------+-----------------------------------------------------+
 | Группы        | Симметрия задачи: осевая → профиль Пуазейля         |
 |               | v(r) = v_max(1 − r²/R²) — параболический профиль    |
 +---------------+-----------------------------------------------------+
 | Размерности   | Число Рейнольдса Re = ρvL/μ — безразмерное.         |
 |               | Re < 2300: ламинар, Re > 4000: турбулентность |
 +---------------+-----------------------------------------------------+


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                              ЧАСТЬ I: ФУНДАМЕНТ
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Философский фундамент
===============================================================================
-------------------------------------------------------------------------------
 Иерархия мышления: от пустоты к физике
-------------------------------------------------------------------------------

Вся математика и познание мира возникают из последовательности актов мышления:

        ∅ Пустота
         |
         | Акт 1: Выбор
         ↓
   +============================================================+
   |  Субъект наделяется возможностью действовать над пустотой  |
   +============================================================+
         |
         | Акт 2: Проведение границ
         ↓
   +============================================================+
   |  Пустота разрезается границами на образы                   |
   +============================================================+
         |
         | Акт 3: Манипуляции образами
         ↓
   +============================================================+
   |  Универсальны для всего живого                             |
   |  Не требуют символов                                       |
   |  Прямое оперирование паттернами                            |
   +============================================================+
         |
         | Акт 4: Категоризация
         ↓
   +============================================================+
   |  Теория множеств                                           |
   |  Минимальный язык для описания наборов объектов            |
   |  Мост между образами и коммуникацией                       |
   +============================================================+
         |
         | Акт 5: Коммуникация
         ↓
   +============================================================+
   |  Естественные языки                                        |
   |  Символическое представление образов                       |
   |  Потеря точности при передаче                              |
   +============================================================+
         |
         | Акт 6: Проверка коммуникации
         ↓
   +============================================================+
   |  Логика / Доказательства                                   |
   |  Нужны из-за ненадёжности языка                            |
   |  Попытка восстановить исходную ясность образов             |
   +============================================================+
         |
         | Акт 7: Применение к миру
         ↓
   +============================================================+
   |  Физика                                                    |
   |  Экспериментальная наука с высокой воспроизводимостью      |
   |  Математика = экспериментальная физика                     |
   +============================================================+


 Ключевые философские положения
+---+---------------------------------------------------------------------+
| 1 | Вселенная есть пустота, бесконечно переопределяющая границы         |
+---+---------------------------------------------------------------------+
| 2 | Существование объекта = возможность кому-то указать на этот объект  |
+---+---------------------------------------------------------------------+
| 3 | Мышление = указание, к каким множествам относятся объекты           |
+---+---------------------------------------------------------------------+
| 4 | Доказательство = явный путь по карте вложений множеств              |
+---+---------------------------------------------------------------------+
| 5 | Логика и математика = экспериментальная физика с высокой воспроизв. |
+---+---------------------------------------------------------------------+
| 6 | Понять = уметь визуально представить                                |
+---+---------------------------------------------------------------------+
| 7 | «Объект» и «пространство» — не свойства вещи, а роли, определяемые  |
|   | актом проведения границы наблюдателем                               |
+---+---------------------------------------------------------------------+

 Объект или пространство? — вопрос точки зрения
 Одна и та же сущность может быть и объектом, и пространством — в зависимости от
 того, где мы проводим границу наблюдения.

-------------------------------------------------------------------------------
 Пример: бублик (тор)
-------------------------------------------------------------------------------

 Бублик как объект (взгляд снаружи):
   Мы смотрим на тор как на целое. Он — один элемент в пространстве
   всех поверхностей, наряду со сферой, двойным тором и т.д.
   Нас интересуют его глобальные свойства: род, площадь, вложение в ℝ³.

 Бублик как пространство (взгляд изнутри):
   Мы "живём" на торе. Теперь нас интересуют точки на нём, пути между
   ними, функции на нём. Для муравья, ползущего по бублику, бублик —
   это весь мир, пространство, в котором он перемещается.

 Оба взгляда верны. Бублик один, но акт выбора границы определяет роль.

-------------------------------------------------------------------------------
 Рекурсия: пространство становится объектом
-------------------------------------------------------------------------------

   Уровень 0:  Точка p на торе T           ← p — объект
   Уровень 1:  Тор T                       ← T — пространство для p
   Уровень 2:  Пространство модулей торов  ← T становится объектом.
   Уровень 3:  Пространство всех модулей   ← предыдущее становится объектом
   ...

 На каждом уровне то, что было пространством, становится объектом
 в пространстве более высокого уровня. Граница поднимается.

-------------------------------------------------------------------------------
 Пример из физики: жидкость и газ
-------------------------------------------------------------------------------

 Этот пример особенно важен, потому что показывает, как один и тот же
 физический объект требует разных математических описаний.

 +---------------+--------------------------------------------------+
 | ПОДХОД        | ЖИДКОСТЬ/ГАЗ — ЭТО:                              |
 +---------------+--------------------------------------------------+
 | Термодинамика | Объект с параметрами (P, V, T, S)                |
 |               | "Чему равно давление газа в баллоне?"            |
 |               | Внутренняя структура неважна — только состояние. |
 +---------------+--------------------------------------------------+
 | Гидродинамика | Пространство с полями v(x,t), P(x,t), ρ(x,t)     |
 | (уравнения    | "Как течёт жидкость вокруг крыла?"               |
 | Навье-Стокса) | Каждая точка — место, где определены скорость,   |
 |               | давление, плотность. Само течение = траектории.  |
 +---------------+--------------------------------------------------+
 | Кинетическая  | Пространство молекул (фазовое пространство)      |
 | теория        | Каждая молекула — объект с координатами (x, v).  |
 |               | Газ = облако точек в 6N-мерном пространстве.     |
 +---------------+--------------------------------------------------+

 Ключевое наблюдение:

   • В термодинамике: газ = точка в пространстве состояний (P,V,T)
   • В гидродинамике: газ = само пространство, где живут поля
   • В кинетике: газ = множество частиц, каждая из которых объект

 Три разных уровня описания — три разных ответа на вопрос
 "что здесь объект, а что пространство".

 Уравнения Навье-Стокса, уравнение Больцмана, уравнение состояния —
 это не конкуренты, а описания на разных уровнях иерархии.

-------------------------------------------------------------------------------
 Практический критерий
-------------------------------------------------------------------------------

   Объект — когда спрашиваем "какой он?" (свойства целого)
   Пространство — когда спрашиваем "что в нём?" (структура внутри)

   Это не свойство вещи, а свойство вопроса, который мы задаём.

-------------------------------------------------------------------------------
 Философский вывод
-------------------------------------------------------------------------------

 "Объект" и "пространство" — не абсолютные свойства, а роли.
 Роль определяется актом проведения границы наблюдателем.

 Математика изучает структуры на всех уровнях одновременно —
 и даёт язык для перехода между ними.



===============================================================================
Теория множеств — базовые понятия
===============================================================================

Теория множеств — это взгляд на пространство как на пыль: есть точки, и больше
ничего. Никакой структуры, никаких связей. Мы ещё не знаем, какие точки "рядом",
не можем их складывать, не можем измерять расстояния. Только голый факт:
эта точка принадлежит этому множеству, или не принадлежит.

Это самый бедный взгляд — но именно с него всё начинается. Все остальные
структуры (топология, алгебра, метрика) будут надстройками над множествами.

В терминах "объект—наблюдатель": на уровне множеств ещё нет наблюдателя.
Нет системы координат, нет способа "записать" элемент числами. Есть только
сами объекты и вопрос: принадлежит или нет?

-------------------------------------------------------------------------------
 Что такое множество
-------------------------------------------------------------------------------

 Множество — это совокупность объектов, рассматриваемых как единое целое.

 Объекты, входящие в множество, называются его элементами.

 Способы задания:
   • Перечисление: A = {1, 2, 3}
   • Описание свойства: B = {x : x > 0} = "все положительные x"

 Особые множества:
   ∅ = {} — пустое множество (не содержит элементов)
   U — универсум (множество всех рассматриваемых объектов)


 Два главных отношения
 +-----------------------------------------------------------------------+
 | x ∈ A     "x — элемент множества A"                                   |
 |            x — это один объект, лежащий внутри A                      |
 |                                                                       |
 |           +===============+                                           |
 |           |       A       |                                           |
 |           |    ●          |  ← точка x внутри A                       |
 |           |    x          |                                           |
 |           +===============+                                           |
 +-----------------------------------------------------------------------+

 +-----------------------------------------------------------------------+
 | B ⊆ A     "B — подмножество A"                                        |
 |           Каждый элемент B является элементом A                       |
 |           (B целиком лежит внутри A)                                  |
 |                                                                       |
 |           +=======================+                                   |
 |           |         A             |                                   |
 |           |    +---------+        |                                   |
 |           |    |    B    |        |  ← B целиком внутри A             |
 |           |    +---------+        |                                   |
 |           +=======================+                                   |
 +-----------------------------------------------------------------------+

 Важно не путать:
   • x ∈ A — x это объект внутри A
   • B ⊆ A — B это множество, все элементы которого в A

 Пример:  A = {1, 2, 3}
   • 2 ∈ A — да (2 — элемент A)
   • {2} ⊆ A — да ({2} — подмножество A)
   • {2} ∈ A — нет ({2} не является элементом A, элементы — числа)
   • 2 ⊆ A — не имеет смысла (2 — не множество)

 Пустое множество:
   • ∅ ⊆ A — всегда верно для любого A
   • ∅ ∈ A — верно только если ∅ явно указано как элемент


 Операции над множествами
+--------------+--------------------------+-----------------------------------+
| ОПЕРАЦИЯ     | ОПРЕДЕЛЕНИЕ              | ДИАГРАММА ВЕННА                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A ∪ B        | {x : x ∈ A или x ∈ B}    |     .-"""-.   .-"""-.             |
| ОБЪЕДИНЕНИЕ  |                          |    /███████\ /███████\            |
|              | Все элементы, которые    |   |█████████████████████|         |
|              | хотя бы в одном          |   |█████████████████████|         |
|              |                          |    \███████/ \███████/            |
|              |                          |     `-._.-"   `-._.-"             |
|              |                          |   Всё закрашенное                 |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A ∩ B        | {x : x ∈ A и x ∈ B}      |     .-"""-.   .-"""-.             |
| ПЕРЕСЕЧЕНИЕ  |                          |    /       \ /       \            |
|              | Все элементы, которые    |   |         █         |           |
|              | в обоих множествах       |   |       █████       |           |
|              |                          |    \       █ /       /            |
|              |                          |     `-._.-" `-._.-"               |
|              |                          |   Только пересечение              |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A \ B        | {x : x ∈ A и x ∉ B}      |     .-"""-.   .-"""-.             |
| РАЗНОСТЬ     |                          |    /███████\ /       \            |
|              | Элементы A, которых      |   |█████████         |            |
|              | нет в B                  |   |███████           |            |
|              |                          |    \███████/ \       /            |
|              |                          |     `-._.-"   `-._.-"             |
|              |                          |   A без пересечения               |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |  +===========================+    |
| Aᶜ или A'    | {x : x ∉ A}              |  |█████████████████████████  |    |
| ДОПОЛНЕНИЕ   |                          |  |██████ .-"""-. ██████████  |    |
|              | Все элементы универсума, |  |█████/       \ █████████   |    |
|              | не входящие в A          |  |████|    A    |█████████   |    |
|              |                          |  |█████\       /██████████   |    |
|              | Aᶜ = U \ A               |  |██████ `-._.-" ██████████  |    |
|              |                          |  +===========================+    |
|              |                          |  Всё, кроме A                     |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+

-------------------------------------------------------------------------------
 Законы теории множеств
-------------------------------------------------------------------------------

 Коммутативность:    A ∪ B = B ∪ A           A ∩ B = B ∩ A
 Ассоциативность:    (A∪B)∪C = A∪(B∪C)       (A∩B)∩C = A∩(B∩C)
 Дистрибутивность:   A∩(B∪C) = (A∩B)∪(A∩C)   A∪(B∩C) = (A∪B)∩(A∪C)

 Законы де Моргана:
   (A ∪ B)ᶜ = Aᶜ ∩ Bᶜ    "не(A или B)" = "не A и не B"
   (A ∩ B)ᶜ = Aᶜ ∪ Bᶜ    "не(A и B)" = "не A или не B"

 Свойства пустого и универсума:
   A ∪ ∅ = A             A ∩ ∅ = ∅
   A ∪ U = U             A ∩ U = A
   A ∪ Aᶜ = U            A ∩ Aᶜ = ∅

-------------------------------------------------------------------------------
 Мощность множества
-------------------------------------------------------------------------------

 |A| — количество элементов в конечном множестве A.

 Примеры:
   |∅| = 0
   |{a, b, c}| = 3
   |{1, 2, {1,2}}| = 3  (три элемента: 1, 2, и множество {1,2})

 Формула включений-исключений:
   |A ∪ B| = |A| + |B| − |A ∩ B|

 Мощность множества подмножеств:
   Если |A| = n, то A имеет 2ⁿ подмножеств (включая ∅ и само A)

-------------------------------------------------------------------------------
 Декартово произведение
-------------------------------------------------------------------------------

 A × B = {(a, b) : a ∈ A, b ∈ B}

 Множество всех упорядоченных пар, где первый элемент из A, второй из B.

 Пример: {1, 2} × {a, b} = {(1,a), (1,b), (2,a), (2,b)}

 Геометрически: Если A и B — отрезки на осях, то A × B — прямоугольник.

   b +    +---------+
     |    |         |
     +    |  A × B  |
     |    |         |
   a +----+---------+----
          1         2

 |A × B| = |A| · |B|

 ℝ × ℝ = ℝ² — плоскость
 ℝ × ℝ × ℝ = ℝ³ — трёхмерное пространство

===============================================================================
Логика и доказательства
===============================================================================

Логические законы есть формализация самоочевидных экспериментальных результатов
манипуляций со множествами, полученных из наблюдений за поведением физических
объектов реальности. Впрочем, эти результаты не обязаны воспроизводиться всегда.

-------------------------------------------------------------------------------
Высказывания и множества
-------------------------------------------------------------------------------

 Философский фундамент: мышление = классификация по множествам

   В конечном итоге все наши мысли сводятся к указанию того,
   к каким множествам относятся мыслимые объекты.

 Когда мы думаем "этот стол деревянный", мы помещаем объект (стол)
 в множество (деревянные вещи). Когда думаем "5 — простое число",
 помещаем 5 в множество простых чисел.

-------------------------------------------------------------------------------
 Структура любого высказывания
-------------------------------------------------------------------------------

 Любое высказывание можно разложить на две части:

   • x — объект, о котором идёт речь
   • P — множество (свойство), к которому объект относится или нет

 +------------------------------------------------------------+
 | Высказывание  =  "объект x обладает свойством P"  =  x ∈ P |
 +------------------------------------------------------------+

 Примеры разложения:

   "Сократ смертен"
       x = Сократ
       P = {все смертные существа}
       Высказывание: Сократ ∈ P

   "7 — нечётное число"
       x = 7
       P = {нечётные числа} = {1, 3, 5, 7, 9, ...}
       Высказывание: 7 ∈ P  (истинно)

   "Эта жидкость — кислота"
       x = эта жидкость
       P = {кислоты}
       Высказывание: x ∈ P  (требует проверки)

 Почему это важно:
   Вся логика — это правила работы с принадлежностью объектов множествам.
   "P и Q" = x принадлежит и множеству P, и множеству Q = x ∈ (P ∩ Q)
   "P или Q" = x принадлежит хотя бы одному = x ∈ (P ∪ Q)
   "не P" = x не принадлежит P = x ∈ Pᶜ (дополнение)

-------------------------------------------------------------------------------
 Что такое логика и зачем она нужна
-------------------------------------------------------------------------------

 Логика — это нормативная дисциплина: она предписывает, как человеку следует
 думать, но не описывает, как он думает на самом деле.

 Цели логики:
   • Уметь доказывать новые утверждения на основе уже известных
   • Обеспечить средства для оценки аргументов на корректность

-------------------------------------------------------------------------------
 Базовые понятия
-------------------------------------------------------------------------------

 Высказывание — утверждение, которое можно проверить на истинность/ложность.
   Примеры:
     ✓ "2 + 2 = 4" — высказывание (истинное)
     ✓ "Москва — столица Франции" — высказывание (ложное)
     ✗ "Который час?" — не высказывание (вопрос)
     ✗ "x > 5" — не высказывание, пока x не определён (предикат)

 Формула — высказывание, составленное из других высказываний через
 логические связки (∧, ∨, ¬, →, ↔) или кванторы (∀, ∃).

 Тавтология — формула, истинная при любых значениях составляющих.
   Пример: P ∨ ¬P (закон исключённого третьего) — всегда истинно.
   Тавтологии используются для построения методов доказательства.

-------------------------------------------------------------------------------
 Два уровня логики
-------------------------------------------------------------------------------

 Пропозициональная (логика высказываний, логика нулевого порядка):
   • Работает с готовыми высказываниями P, Q, R, ...
   • Связки: ∧, ∨, ¬, →, ↔
   • Можно проверить таблицей истинности (механически)

 Предикатная (логика первого порядка):
   • Добавляет переменные, предикаты и кванторы ∀, ∃
   • Позволяет говорить о свойствах объектов и отношениях между ними
   • Нужна для математики (утверждения типа "для всех n")

   Переменные — представляют элементы некоторого множества.
   Предикаты — функции, возвращающие истину/ложь для объектов.
     Пример: P(x) = "x чётное", Q(x,y) = "x < y"
   Кванторы — позволяют делать утверждения о множествах объектов.

-------------------------------------------------------------------------------
 Два способа проверки логического следования
-------------------------------------------------------------------------------

 Способ 1: Таблица истинности (механический, для пропозициональной логики)
   • Выписать все комбинации значений переменных
   • Вычислить значения посылок и заключения
   • Проверить: если посылки = 1, то заключение = 1?

 Способ 2: Готовые методы (тавтологии с известной структурой)
   • Modus Ponens, Modus Tollens, от противного и др.
   • Не требуют таблиц — используют уже доказанные тавтологии

 Фундаментальный принцип:

   Теория множеств первична по отношению к логике.

   • Теория множеств = правила операций над объектами любой природы
   • Логика = правила операций над высказываниями любого языка

   Логика — это надстройка над теорией множеств.
   Сначала мыслим принадлежностями к множествам,
   и только потом даём определения логическим операциям.

+--------------+-------------------------+----------------------------------+
| ЛОГИЧЕСКАЯ   |  ОПРЕДЕЛЕНИЕ ЧЕРЕЗ      |  ДИАГРАММА ВЕННА                 |
| ОПЕРАЦИЯ     |  ТЕОРИЮ МНОЖЕСТВ        |  (заштриховано = результат)      |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ∧ Q        | x ∈ (P ∩ Q)             |       .-"""-.   .-"""-.          |
| "P и Q"      | x принадлежит           |      /   P   \ /   Q   \         |
|              | пересечению             |     |         █         |        |
|              |                         |     |       █████       |        |
|              |                         |      \       █ /       /         |
|              |                         |       `-._.-" `-._.-"            |
|              |                         |              ↑                   |
|              |                         |     Только это (пересечение)     |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ∨ Q        | x ∈ (P ∪ Q)             |       .-"""-.   .-"""-.          |
| "P или Q"    | x принадлежит           |      /███████\ /███████\         |
|              | объединению             |     |█████████████████████|      |
|              |                         |     |█████████████████████|      |
|              |                         |      \███████/ \███████/         |
|              |                         |       `-._.-"   `-._.-"          |
|              |                         |            ↑                     |
|              |                         |    Всё закрашенное (оба круга)   |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |  +===========================+   |
| ¬P           | x ∈ Pᶜ                  |  |█████████████████████████  |   |
| "не P"       | x принадлежит           |  |██████ .-"""-. ██████████  |   |
|              | дополнению              |  |█████/       \█████████    |   |
|              |                         |  |████|    P    |█████████   |   |
|              |                         |  |█████\       /██████████   |   |
|              |                         |  |██████ `-._.-" ██████████  |   |
|              |                         |  |█████████████████████████  |   |
|              |                         |  +===========================+   |
|              |                         |     ↑ Всё кроме P                |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ⇒ Q        | P ⊆ Q                   |       .------""""""------.       |
| "если P,     | Множество P вложено     |      /          Q         \      |
|  то Q"       | в множество Q           |     |    .---.             |     |
|              |                         |     |   |  P  |            |     |
|              | (каждый x из P          |     |    `---"             |     |
|              |  обязательно в Q)       |      \                    /      |
|              |                         |       `------.-----------"       |
|              | Эквивалентно: ¬P ∨ Q    |     P целиком внутри Q           |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ⇔ Q        | P = Q                   |         .-------.                |
| "P тогда и   | Множества совпадают     |        /         \               |
| только тогда,|                         |       |   P = Q   |              |
| когда Q"     | (P ⊆ Q) ∧ (Q ⊆ P)       |        \         /               |
|              |                         |         `-------"                |
|              |                         |     Один и тот же круг.          |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ⊤            | U (универсум)           |  +===========================+   |
| "истина"     |                         |  |█████████████████████████  |   |
|              | x ∈ U  для любого x     |  |█████████████████████████  |   |
|              |                         |  |█████████ U █████████████  |   |
|              |                         |  |█████████████████████████  |   |
|              |                         |  +===========================+   |
|              |                         |     Всё пространство             |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ⊥            | ∅ (пустое множество)    |      { }                         |
| "ложь"       |                         |      (ничего нет)                |
|              | x ∈ ∅ никогда           |                                  |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+

Кванторы (для предикатной логики):

+--------------+-------------------------+----------------------------------+
| КВАНТОР      |  ОПРЕДЕЛЕНИЕ            |  ВИЗУАЛИЗАЦИЯ                    |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ∀x ∈ A: P(x) | P(x) истинно для всех x |  +===========+                   |
|              | из множества A          |  | · · · · · | ← каждая точка    |
| "для всех x  |                         |  | · · · · · |   в A имеет       |
|  из A верно  | Эквивалентно: A ⊆ P     |  | · · · · · |   свойство P      |
|  P(x)"       | (A вложено в множество  |  +===========+                   |
|              |  точек со свойством P)  |       A ⊆ P                      |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ∃x ∈ A: P(x) | P(x) истинно хотя бы    |  +===========+                   |
|              | для одного x из A       |  |           |                   |
| "существует  |                         |  |     ●     | ← хотя бы одна    |
|  x из A      | Эквивалентно: A ∩ P ≠ ∅ |  |           |   точка с P       |
|  со свойством| (пересечение A и        |  +===========+                   |
|  P"          |  множества точек с P    |      A ∩ P ≠ ∅                   |
|              |  непусто)               |                                  |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+

 Соответствие: логика ↔ теория множеств
+------------------------+------------------------------+
| ЛОГИКА                 | ТЕОРИЯ МНОЖЕСТВ              |
+------------------------+------------------------------+
| Высказывание P         | Множество {x : P(x) истинно} |
| Логический вывод P ⊢ Q | Вложение множеств: P ⊆ Q     |
| Тавтология             | Универсальное множество      |
| Противоречие           | Пустое множество ∅           |
+------------------------+------------------------------+

-------------------------------------------------------------------------------
 Табличный метод для логики высказываний (нулевого порядка)
-------------------------------------------------------------------------------

 Позволяет механически проверить любую формулу без творчества
 Работает только для конечного числа переменных, без кванторов ∀, ∃

 Таблица истинности логических операций
+---+---+-------+-------+----+-------+-------+
| P | Q | P ∧ Q | P ∨ Q | ¬P | P → Q | P ↔ Q |
+---+---+-------+-------+----+-------+-------+
| 0 | 0 |   0   |   0   | 1  |   1   |   1   |
| 0 | 1 |   0   |   1   | 1  |   1   |   0   |
| 1 | 0 |   0   |   1   | 0  |   0   |   0   |
| 1 | 1 |   1   |   1   | 0  |   1   |   1   |
+---+---+-------+-------+----+-------+-------+

-------------------------------------------------------------------------------
Алгоритм классификации формул
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Задача 1: определение типа формулы
-------------------------------------------------------------------------------

 Задача: Определить тип формулы F

 Вход:  формула F с переменными P₁, P₂, ..., Pₙ
 Выход: тавтология / противоречие / выполнимая

 Алгоритм табличной проверки
+-----+--------------------------------------+
| ШАГ | ДЕЙСТВИЕ                             |
+-----+--------------------------------------+
| 1   | Выписать переменные: P₁, P₂, ..., Pₙ |
| 2   | Построить таблицу с 2ⁿ строками      |
| 3   | Вычислить F для каждой строки        |
| 4   | Классифицировать результат           |
+-----+--------------------------------------+

 Классификация
+----------------+--------------+
| РЕЗУЛЬТАТ      | ТИП ФОРМУЛЫ  |
+----------------+--------------+
| Все строки = 1 | Тавтология   |
| Все строки = 0 | Противоречие |
| Смешанные      | Выполнимая   |
+----------------+--------------+

Пример 1.1: Проверить (P → Q) ↔ (¬P ∨ Q)

  +---+---+-------+----+--------+------------------+
  | P | Q | P → Q | ¬P | ¬P ∨ Q | (P→Q) ↔ (¬P ∨ Q) |
  +---+---+-------+----+--------+------------------+
  | 0 | 0 |   1   | 1  |   1    |       1          |
  | 0 | 1 |   1   | 1  |   1    |       1          |
  | 1 | 0 |   0   | 0  |   0    |       1          |
  | 1 | 1 |   1   | 0  |   1    |       1          |
  +---+---+-------+----+--------+------------------+

  Все строки = 1  →  тавтология

Пример 1.2: Проверить P ∧ ¬P

  +---+----+--------+
  | P | ¬P | P ∧ ¬P |
  +---+----+--------+
  | 0 | 1  |   0    |
  | 1 | 0  |   0    |
  +---+----+--------+

  Все строки = 0  →  противоречие

Пример 1.3: Проверить закон де Моргана ¬(P ∧ Q) ↔ (¬P ∨ ¬Q)

  +---+---+-------+----------+----+----+---------+---+
  | P | Q | P ∧ Q | ¬(P ∧ Q) | ¬P | ¬Q | ¬P ∨ ¬Q | ↔ |
  +---+---+-------+----------+----+----+---------+---+
  | 0 | 0 |   0   |     1    | 1  | 1  |    1    | 1 |
  | 0 | 1 |   0   |     1    | 1  | 0  |    1    | 1 |
  | 1 | 0 |   0   |     1    | 0  | 1  |    1    | 1 |
  | 1 | 1 |   1   |     0    | 0  | 0  |    0    | 1 |
  +---+---+-------+----------+----+----+---------+---+

  Все строки = 1  →  тавтология

-------------------------------------------------------------------------------
Задача 2: проверка следования
-------------------------------------------------------------------------------

Задача: определить, следует ли B из посылок A₁, A₂, ..., Aₖ

Запись: A₁, A₂, ..., Aₖ ⊢ B

Ключевое: запятая между посылками означает ∧ (логическое И).

  A₁, A₂, ..., Aₖ ⊢ B   означает   (A₁ ∧ A₂ ∧ ... ∧ Aₖ) → B

Алгоритм:

  Шаг 1.  Выписать все переменные из всех формул A₁, ..., Aₖ, B
  Шаг 2.  Построить таблицу с 2ⁿ строками
  Шаг 3.  Для каждой строки вычислить A₁, A₂, ..., Aₖ, их конъюнкцию, и B
  Шаг 4.  Искать контрпример: строку, где (A₁ ∧ ... ∧ Aₖ) = 1, но B = 0

          • Контрпример найден     →  следование неверно
          • Контрпримера нет       →  следование верно

Пример 2.1: Проверить modus ponens  (P → Q) ∧ P ⊢ Q

  Обозначим: A₁ = (P → Q),  A₂ = P,  B = Q

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Проверка       |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  | 0 | 1 | 1  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 0 | 0  | 1  |    0    | 0 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  +---+---+----+----+---------+---+----------------+

  Единственная строка где A₁∧A₂=1: P=1, Q=1.
  В ней B=1. Контрпримера нет  →  следование верно.

Пример 2.2: Проверить modus tollens  (P → Q) ∧ ¬Q ⊢ ¬P

  Обозначим: A₁ = (P → Q),  A₂ = ¬Q,  B = ¬P

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Проверка       |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  | 0 | 1 | 1  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 0 | 0  | 1  |    0    | 0 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  +---+---+----+----+---------+---+----------------+

  Единственная строка где A₁∧A₂=1: P=0, Q=0.
  В ней B=1. Контрпримера нет  →  следование верно.

Пример 2.3: Проверить неверное следование  (P → Q) ∧ Q ⊢ P

  Обозначим: A₁ = (P → Q),  A₂ = Q,  B = P

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Проверка       |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  | 0 | 1 | 1  | 1  |    1    | 0 | A₁∧A₂=1, B=0 ✗ |
  | 1 | 0 | 0  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  +---+---+----+----+---------+---+----------------+

  Строка P=0, Q=1: A₁∧A₂=1, но B=0.
  Контрпример найден  →  следование неверно.
  (Это ошибка "утверждение консеквента")

-------------------------------------------------------------------------------
Ограничения метода
-------------------------------------------------------------------------------

  +--------------------------------------------------------------+
  | • Работает только для логики высказываний (нулевого порядка) |
  | • Не работает для логики предикатов (с ∀, ∃)                 |
  | • При n переменных требует 2ⁿ строк (экспоненциальный рост)  |
  | • Для n = 10 уже 1024 строки, для n = 20 — больше миллиона   |
  +--------------------------------------------------------------+

Связь с теорией множеств:

  Таблица истинности — перебор всех точек пространства {0,1}ⁿ.
  Формула задаёт подмножество (где она истинна).

  Тавтология = всё пространство.
  Противоречие = пустое множество.
  Следование (A₁ ∧ ... ∧ Aₖ) ⊢ B верно ⟺ множество (A₁ ∧ ... ∧ Aₖ) ⊆ множество B.


-------------------------------------------------------------------------------
Методы доказательств — с конкретными примерами задач
-------------------------------------------------------------------------------

 Что значит "доказать" в математике?

 Интуитивно:
   Доказать = убедить любого разумного человека, следуя правилам,
   которые он заранее принял.

 Формально:
   Доказательство — это конечная цепочка утверждений, где каждое:
   • либо аксиома (принятое без доказательства)
   • либо следует из предыдущих по правилам логики
   Последнее утверждение = то, что доказываем.

-------------------------------------------------------------------------------
 Чего доказательство не делает:
-------------------------------------------------------------------------------

   ✗ не объясняет "почему это правда" (это делает интуиция)
   ✗ не показывает, как это открыли (это история)
   ✗ не гарантирует понимание (можно проверить доказательство, не понимая)

   Доказательство — это верификация, а не объяснение.
   Хорошее доказательство объясняет, плохое — только убеждает.

-------------------------------------------------------------------------------
 Типы утверждений и что нужно для доказательства
-------------------------------------------------------------------------------

 +--------------+---------------------+-----------------------+
 | УТВЕРЖДЕНИЕ  | КАК ДОКАЗАТЬ        | КАК ОПРОВЕРГНУТЬ      |
 +--------------+---------------------+-----------------------+
 | ∀x: P(x)     | Доказать для        | один контрпример      |
 | "для всех"   | произвольного x     |                       |
 +--------------+---------------------+-----------------------+
 | ∃x: P(x)     | один пример         | Доказать для всех,    |
 | "существует" |                     | что P(x) ложно        |
 +--------------+---------------------+-----------------------+
 | ∀x∃y: P(x,y) | Для произвольного x | Найти x, для которого |
 | "для всех    | предъявить такой y  | нет подходящего y     |
 | существует"  |                     |                       |
 +--------------+---------------------+-----------------------+
 | ∃x∀y: P(x,y) | Предъявить x,       | Для любого x найти y, |
 | "существует  | работающий для      | нарушающий P          |
 | для всех"    | всех y              |                       |
 +--------------+---------------------+-----------------------+

 Важно: Примеры никогда не доказывают ∀-утверждения.
        Даже миллион примеров не доказывает, что "для всех".
        Но один контрпример опровергает.

-------------------------------------------------------------------------------
 Конструктивные vs неконструктивные доказательства
-------------------------------------------------------------------------------

 Конструктивное: Предъявляет объект явно.
   Пример: "Существует иррациональное число" — вот √2, и вот доказательство.

 Неконструктивное: Доказывает существование, не показывая объект.
   Пример: "Существуют иррациональные a, b такие, что a^b рационально."
           Рассмотрим √2^√2.
           Если рациональное — готово: a = b = √2.
           Если иррациональное — то возьмём a = √2^√2, b = √2;
           тогда a^b = (√2^√2)^√2 = √2² = 2 — рациональное.
           Мы не знаем, какой из двух случаев верен, но один из них точно.

-------------------------------------------------------------------------------
 Как читать доказательства (практические советы)
-------------------------------------------------------------------------------

 1. Выпишите отдельно: что дано, что доказываем
 2. На каждом шаге спрашивайте: "откуда это следует?"
 3. Ищите ключевую идею — обычно один трюк, остальное — техника
 4. Попробуйте сломать доказательство — где оно использует условия?
 5. После прочтения — перескажите своими словами

 Если не можете объяснить простыми словами — вы не поняли.

Доказательство = явное описание пути по карте вложений и пересечений
множеств, приводящего к утверждению о принадлежности объекта множеству.

+------------------+----------------------+----------------------------------+
|  МЕТОД           |  СТРУКТУРА           |  ГЕОМЕТРИЧЕСКАЯ ИНТЕРПРЕТАЦИЯ    |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| Modus ponens     |  1. P → Q (истинно)  |  Если объект в P, и P вложено    |
| (правило вывода) |  2. P (истинно)      |  в Q, то объект в Q              |
|                  |  ---------------     |                                  |
|                  |  ∴ Q (истинно)       |     +-------------+              |
|                  |                      |     |      Q      |              |
|                  | "Если P, то Q.       |     |  +-----+    |              |
|                  |  P верно.            |     |  |  P ●|    |              |
|                  |  Следовательно, Q"   |     |  +-----+    |              |
|                  |                      |     +-------------+              |
|                  |                      |     объект ● ∈ P ⊂ Q             |
|                  |                      |                                  |
| Пример задачи:   | Доказать: если n     | Решение:                         |
|                  | делится на 6, то n   | 1. 6 | n ⇒ n = 6k                |
|                  | делится на 3         | 2. n = 6k = 3·(2k)               |
|                  |                      | 3. ⇒ 3 | n  ✓                    |
|                  |                      | {n : 6|n} ⊂ {n : 3|n}            |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| Modus tollens    |  1. P → Q            |  Если объект не в Q, и P ⊂ Q,    |
| (отрицание       |  2. ¬Q               |  то объект не в P                |
|  следствия)      |  ---------------     |                                  |
|                  |  ∴ ¬P                |     +-------------+              |
|                  |                      |     |      Q      |              |
|                  | "Если P, то Q.       |     |  +-----+    |              |
|                  |  Q ложно.            |     |  |  P  |    |   ● не в Q   |
|                  |  Следовательно, P    |     |  +-----+    |              |
|                  |  ложно"              |     +-------------+              |
|                  |                      |     ⇒ ● не может быть в P        |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| REDUCTIO AD      |  Хотим доказать Q    |  Предполагаем ¬Q, приходим к     |
| ABSURDUM         |                      |  противоречию                    |
| (от противного)  |  1. Предполагаем ¬Q  |                                  |
|                  |  2. Выводим          |  +----------+                    |
|                  |     противоречие P∧¬P|  |Универсум |                    |
|                  |  ---------------     |  |  +--+    |                    |
|                  |  ∴ Q истинно         |  |  |Q | ¬Q | ← пусто.           |
|                  |                      |  |  +--+    |                    |
|                  | "Предположим         |  +----------+                    |
|                  |  противоположное.    |  Если ¬Q пусто, то все в Q       |
|                  |  Получаем абсурд.    |                                  |
|                  |  Значит, исходное    |                                  |
|                  |  верно"              |                                  |
|                  |                      |                                  |
| Пример задачи:   | Доказать √2 ∉ ℚ      | Решение:                         |
|                  |                      | 1. Предполагаем √2 ∈ ℚ           |
|                  |                      | 2. √2 = p/q (несократима)        |
|                  |                      | 3. 2q² = p² ⇒ p чётно (=2k)      |
|                  |                      | 4. 2q² = 4k² ⇒ q² = 2k²          |
|                  |                      | 5. ⇒ q чётно                     |
|                  |                      | 6. Но p,q оба чётны —            |
|                  |                      |    противоречие                  |
|                  |                      | 7. ⇒ √2 ∉ ℚ  ✓                   |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| прямое           |  Даны: предпосылки   |  Прямой путь от посылок к        |
| доказательство   |  P₁, P₂, ..., Pₙ     |  заключению через вложения       |
|                  |                      |                                  |
|                  |  Цель: Q             |  P₁ → P₂ → ... → Pₙ → Q          |
|                  |                      |                                  |
|                  |  Строим цепочку:     |  Каждая стрелка = вложение       |
|                  |  P₁ ⇒ ... ⇒ Pₙ ⇒ Q   |  множеств или логическое         |
|                  |                      |  следование                      |
|                  |                      |                                  |
| Пример задачи:   | Доказать: n чётно    | Решение:                         |
|                  | ⇒ n² чётно           | 1. n чётно ⇒ n = 2k              |
|                  |                      | 2. n² = (2k)² = 4k²              |
|                  |                      | 3. = 2·(2k²) = 2m, m=2k²         |
|                  |                      | 4. ⇒ n² чётно  ✓                 |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| математическая   |  База: P(0)          |  Домино падают:                  |
| ИНДУКЦИЯ         |  Шаг: P(n) ⇒ P(n+1)  |                                  |
|                  |  -------------       |  ●→●→●→●→●→...                   |
|                  |  ∴ ∀n: P(n)          |  0  1  2  3  4                   |
|                  |                      |                                  |
|                  | "Верно для 0.        |  Если толкнули 0, и каждое       |
|                  |  Если верно для n,   |  толкает следующее, то все       |
|                  |  то и для n+1.       |  упадут                          |
|                  |  Значит, верно для   |                                  |
|                  |  всех натуральных"   |                                  |
|                  |                      |                                  |
| Пример задачи:   | Доказать             | Решение:                         |
|                  | 1+2+...+n=n(n+1)/2     | База: n=1: 1=1·2/2=1  ✓        |
|                  |                      | Шаг: Пусть верно для n.          |
|                  |                      | Для n+1:                         |
|                  |                      | 1+...+n+(n+1) =                  |
|                  |                      | = n(n+1)/2 + (n+1)               |
|                  |                      | = (n+1)(n/2+1)                   |
|                  |                      | = (n+1)(n+2)/2  ✓                |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| разбор случаев   |  P ∨ Q               |  Универсум = P ∪ Q               |
|                  |  P ⇒ R               |                                  |
|                  |  Q ⇒ R               |  +--------------+                |
|                  |  -------------       |  |   R          |                |
|                  |  ∴ R                 |  | +---+  +---+ |                |
|                  |                      |  | | P |  | Q | |                |
|                  | "Либо P, либо Q.     |  | +---+  +---+ |                |
|                  |  и в том, и в другом |  +--------------+                |
|                  |  случае следует R"   |  Оба случая ведут в R            |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| контрапозиция    |  P → Q               |  P ⊂ Q эквивалентно              |
|                  |  =========           |  Qᶜ ⊂ Pᶜ                         |
|                  |  ¬Q → ¬P             |                                  |
|                  |                      |  +------------+                  |
|                  | "Если из P следует Q,|  |  Q    Qᶜ   |                  |
|                  |  то из НЕ-Q следует  |  |+--+  +--+  |                  |
|                  |  НЕ-P"               |  ||P |  |Pᶜ|  |                  |
|                  |                      |  |+--+  +--+  |                  |
|                  | Эквивалентные        |  +------------+                  |
|                  | формулировки.        |                                  |
|                  |                      |                                  |
| Пример задачи:   | Доказать: n² нечётно | Решение (контрапозиция):         |
|                  | ⇒ n нечётно          | Докажем: n чётно ⇒ n² чётно      |
|                  |                      | (это мы уже знаем)              |
|                  |                      | По контрапозиции:                |
|                  |                      | n² нечётно ⇒ n нечётно  ✓        |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+

Ключевая идея:

  Все методы доказательств сводятся к демонстрации того, что некоторый
  объект находится во вложенных друг в друга множествах.

  Доказать Q = показать путь вложений, ведущий к Q.


 Геометрическая интерпретация методов доказательства

 Каждый метод доказательства имеет простую визуализацию через вложенность
 множеств на диаграмме Венна. Это делает логику интуитивно понятной.

-------------------------------------------------------------------------------
 Modus ponens: "Если P, то Q. P верно. Следовательно, Q верно."
-------------------------------------------------------------------------------

   Формула: P → Q,  P  ⊢  Q

   Геометрически:
   Если P ⊂ Q (круг P полностью внутри круга Q)
   и объект x ∈ P
   то x ∈ Q (очевидно)

       +================================+
       |            Q                   |
       |      +------------+            |
       |      |     P      |            |
       |      |   ● x      |            |  ← x в P, но P внутри Q
       |      +------------+            |    ⇒ x автоматически в Q
       +================================+

   Пример: "Все студенты имеют студенческий билет."
           "Маша — студент."
           ⇒ "Маша имеет студенческий билет."

-------------------------------------------------------------------------------
 Reductio ad absurdum: "Предположим противоположное. Получаем абсурд."
-------------------------------------------------------------------------------

   Формула: Предположим ¬Q. Выводим противоречие. Следовательно, Q.

   Геометрически:
   Допустим P ⊂ Q (P внутри Q).
   Предполагаем: объект x принадлежит P и одновременно не принадлежит Q.
   Но это противоречие. (x не может быть в P и вне Q, если P ⊂ Q)
   Следовательно, если x ∈ P, то x ∈ Q.

       +================================+
       |            Q          ████████ | ← Qᶜ (дополнение)
       |      +------------+   █ ¬Q  ██ |
       |      |     P      |   ████████ |
       |      |            |   ████████ |
       |      +------------+   ████████ |
       +================================+

   Попытка поместить точку одновременно в P и в Qᶜ — противоречие.
   Эти области не пересекаются.

   Пример: "Доказать √2 ∉ ℚ"
           Предположим √2 ∈ ℚ ⇒ получаем противоречие ⇒ √2 ∉ ℚ

-------------------------------------------------------------------------------
 Философское замечание
-------------------------------------------------------------------------------

 Доказательства — это не вершина математики, а костыль для компенсации
 потерь при языковой передаче. В идеальном мире телепатов, где можно
 напрямую "показать" геометрию вложений, формальные доказательства
 были бы не нужны.

 Формализация математики — это не строгость сама по себе, а вынужденная
 мера при переходе к языковому описанию. Сама математика существует на
 доязычном уровне манипуляций с образами и вложениями множеств.


-------------------------------------------------------------------------------
Единство: логика = множества = порядок
-------------------------------------------------------------------------------

Предварительно: Что такое порядок?

  Частичный порядок ≤ на множестве X — это отношение, которое:
    • Рефлексивно: x ≤ x для любого x
    • Антисимметрично: x ≤ y и y ≤ x ⇒ x = y
    • Транзитивно: x ≤ y и y ≤ z ⇒ x ≤ z

  Примеры: ⊆ на множествах, ≤ на числах, "делит" на натуральных.

 Логика, множества и порядок — это три языка для описания одной структуры.

 Это не аналогия. Это тождество. Теорема Стоуна (1936) доказывает:
 булева алгебра ≅ алгебра множеств ≅ пропозициональная логика


 Один объект — три языка
+------------------+----------------------+--------------------+
| ЛОГИКА           | МНОЖЕСТВА            | ПОРЯДОК/РЕШЁТКА    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| Высказывание P   | Множество A          | Элемент a          |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ∧ Q  (И)       | A ∩ B  (пересечение) | a ∧ b  (meet, inf) |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ∨ Q  (или)     | A ∪ B  (объединение) | a ∨ b  (join, sup) |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| ¬P  (НЕ)         | Aᶜ  (дополнение)     | ¬a  (complement)   |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ⇒ Q  (следует) | A ⊆ B  (включение)   | a ≤ b  (порядок)   |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| истина ⊤         | Универсум U          | Максимум 1         |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| ложь ⊥           | Пустое ∅             | Минимум 0          |
|                  |                      |                    |
+------------------+----------------------+--------------------+

 Законы — одни и те же в трёх языках


 Де Моргана:    ¬(P∧Q) = ¬P∨¬Q     |  (A∩B)ᶜ = Aᶜ∪Bᶜ    |  аналогично
                ¬(P∨Q) = ¬P∧¬Q     |  (A∪B)ᶜ = Aᶜ∩Bᶜ    |

 Дистрибутивность:  P∧(Q∨R)=(P∧Q)∨(P∧R)|  A∩(B∪C)=(A∩B)∪(A∩C)|
                    P∨(Q∧R)=(P∨Q)∧(P∨R)|  A∪(B∩C)=(A∪B)∩(A∪C)|

 Исключ. третьего: P ∨ ¬P = ⊤      |  A ∪ Aᶜ = U        |  a ∨ ¬a = 1
 Противоречие:     P ∧ ¬P = ⊥      |  A ∩ Aᶜ = ∅        |  a ∧ ¬a = 0

 Это не "похожие законы" — это один закон, записанный тремя способами.


 Решётка и булева алгебра


 Решётка = частичный порядок, где любые два элемента имеют:
   a ∨ b = sup{a, b}  (наименьшая верхняя грань, join)
   a ∧ b = inf{a, b}  (наибольшая нижняя грань, meet)

 Булева алгебра = решётка с дополнением:
   Для каждого a существует ¬a:  a ∨ ¬a = 1  и  a ∧ ¬a = 0

+--------------------+-------------+-----------+
| Пример             | ∨ (join)    | ∧ (meet)  |
+--------------------+-------------+-----------+
| Подмножества 2^X   | A ∪ B       | A ∩ B     |
| Делители n         | НОК(a, b)   | НОД(a, b) |
| Высказывания       | P ∨ Q (или) | P ∧ Q (И) |
| Открытые множества | U₁ ∪ U₂     | U₁ ∩ U₂   |
+--------------------+-------------+-----------+

 Важно: Делители 12 — решётка, но не булева. (нет дополнения для 2, 3, 4, 6)
        Подмножества — булева алгебра (дополнение Aᶜ всегда существует)

 Интуиционистская логика и топология

 Таблица выше верна для классической логики (булева алгебра).
 Но есть интуиционистская логика, где ¬¬P ≠ P и P ∨ ¬P не всегда верно.

 +---------------------+--------------------------------+
 | КЛАССИЧЕСКАЯ        | ИНТУИЦИОНИСТСКАЯ               |
 +---------------------+--------------------------------+
 | Булева алгебра      | Алгебра Гейтинга               |
 | Подмножества        | Открытые множества топологии   |
 | P ∨ ¬P = ⊤ (всегда) | P ∨ ¬P ≠ ⊤ (не всегда)         |
 | ¬¬P = P             | ¬¬P ≠ P                        |
 | A ∪ Aᶜ = U          | U ∪ Int(Uᶜ) ≠ X в общем случае |
 +---------------------+--------------------------------+

 Почему открытые множества:
   • ¬U = Int(Uᶜ) = внутренность дополнения (не само дополнение)
   • U ∪ ¬U = U ∪ Int(Uᶜ) может не равняться X
   • Пример: U = (0,1) на ℝ. Тогда ¬U = Int((−∞,0]∪[1,∞)) = (−∞,0)∪(1,∞)
     и U ∪ ¬U = ℝ \ {0,1} ≠ ℝ.

 Связь с конструктивизмом:
   В интуиционистской логике "существует" = "можно построить".
   Закон исключённого третьего (P ∨ ¬P) неверен, потому что
   из невозможности построить контрпример не следует наличие примера.


===============================================================================
Аксиоматический метод — правила игры в математику
===============================================================================

-------------------------------------------------------------------------------
 Что такое аксиома
-------------------------------------------------------------------------------

 Аксиома — это утверждение, которое принимается без доказательства.

 Почему без доказательства? Потому что любое доказательство опирается на
 какие-то предшествующие утверждения. Если требовать доказывать всё, получим
 бесконечную цепочку или замкнутый круг. Нужна точка опоры.

Аналогия: Правила настольной игры

   • Вы не "доказываете", что в шахматах конь ходит буквой Г
   • Это правило игры — мы его принимаем, чтобы играть
   • Аксиомы = правила математической игры
   • Теоремы = всё, что можно вывести из правил

 Важно: Аксиомы не "истинны" и не "ложны" в абсолютном смысле.
 Они — соглашения. Разные наборы аксиом дают разные математики.

-------------------------------------------------------------------------------
 Зачем нужен аксиоматический метод
-------------------------------------------------------------------------------

 История: До конца XIX века математики работали "интуитивно".
 Потом обнаружились парадоксы — логические противоречия.

 Парадокс Рассела (1901):

   Пусть R = {x : x ∉ x} — "множество всех множеств, не содержащих себя"

   Вопрос: R ∈ R или R ∉ R?

   • Если R ∈ R, то по определению R должно быть R ∉ R - противоречие
   • Если R ∉ R, то по определению R должно быть R ∈ R - противоречие

 Вывод: Нельзя просто так создавать "множество всего, что удовлетворяет
 условию". Нужны ограничения — аксиомы, определяющие, какие множества
 "легальны".

 Решение: Система аксиом ZFC (Цермело-Френкель с аксиомой выбора)


===============================================================================
Аксиомы ZFC — фундамент современной математики
===============================================================================

ZFC = Zermelo-Fraenkel + Choice (Цермело-Френкель + Выбор)

Это система из ~9 аксиом, на которой построена почти вся современная
математика.

 Нотация

   ∀x — "для всех x" (квантор всеобщности)
   ∃x — "существует x" (квантор существования)
   →  — "следует", "влечёт"
   ↔  — "эквивалентно", "тогда и только тогда"
   ∧  — "и" (конъюнкция)
   ∨  — "или" (дизъюнкция)

 Аксиомы ZFC — сводная таблица
+---------------+----------------------------+--------------------------------+
| АКСИОМА       | ФОРМУЛА                    | ЧТО ДАЁТ                       |
+---------------+----------------------------+--------------------------------+
| 1. Объёмность | (∀x: x∈A ↔ x∈B) → A=B      | Множество = его элементы.      |
| Extensionality|                            | {1,2,3} = {3,1,2}              |
+---------------+----------------------------+--------------------------------+
| 2. Пустое мн. | ∃∅: ∀x: x∉∅               | "Ноль" теории множеств.        |
| Empty Set     |                            | Точка отсчёта для построений   |
+---------------+----------------------------+--------------------------------+
| 3. Пара       | ∀a∀b ∃P: x∈P ↔ (x=a∨x=b)   | Можно создать {a,b}.           |
| Pairing       |                            | Следствие: {a}={a,a}           |
+---------------+----------------------------+--------------------------------+
| 4. Объединение| ∀A ∃U: x∈U ↔ ∃B(B∈A∧x∈B)   | Можно слить множества.         |
| Union         |                            | ∪{{1,2},{3}} = {1,2,3}         |
+---------------+----------------------------+--------------------------------+
| 5. Булеан     | ∀A ∃P: B∈P ↔ B⊆A           | Множество всех подмножеств.    |
| Power Set     |                            | 𝒫({1,2}) = {∅,{1},{2},{1,2}}   |
|               |                            | |𝒫(A)| = 2^|A|                 |
+---------------+----------------------------+--------------------------------+
| 6. Бесконечн. | ∃I: ∅∈I ∧ (x∈I → x∪{x}∈I)  | Бесконечные множества сущ-ют.  |
| Infinity      |                            | Минимальное такое I = ℕ        |
+---------------+----------------------------+--------------------------------+
| 7. Выделение  | ∀A ∃B: x∈B ↔ (x∈A ∧ φ(x))  | {x∈A: φ(x)} — легально.        |
| Separation    |                            | {x: φ(x)} — нелегально.        |
|               |                            | (избегаем парадокса Рассела)   |
+---------------+----------------------------+--------------------------------+
| 8. Замена     | Образ множества под        | {f(a): a∈A} — множество.       |
| Replacement   | функцией — множество       | Нужно для больших кардиналов   |
+---------------+----------------------------+--------------------------------+
| 9. Регулярн.  | A≠∅ → ∃x∈A: x∩A=∅         | Нет x∈x, нет циклов a∈b∈a       |
| Foundation    |                            | Всё строится "снизу" из ∅      |
+---------------+----------------------------+--------------------------------+

 Важная тонкость: схемы аксиом


 Аксиомы 7 (Выделение) и 8 (Замена) — это не одиночные аксиомы, а схемы:
 для каждой формулы φ(x) получается своя аксиома.

   • "Выделение с φ(x) = (x чётное)" — одна аксиома
   • "Выделение с φ(x) = (x простое)" — другая аксиома
   • ...и так далее для каждой возможной формулы

 Поэтому ZFC формально содержит бесконечно много аксиом.
 Это не проблема — мы всё равно можем проверить любое конкретное
 доказательство за конечное время.

-------------------------------------------------------------------------------
 Парадокс Рассела и как ZFC его решает
-------------------------------------------------------------------------------

 Парадокс: Пусть R = {x : x ∉ x}. Тогда R ∈ R ⟺ R ∉ R. Противоречие.

 Решение в ZFC:
   Аксиома Выделения (Separation) запрещает строить {x : φ(x)}.
   Можно только {x ∈ A : φ(x)} — подмножество уже существующего A.

   Чтобы построить R = {x : x ∉ x}, нужно сначала иметь множество A,
   содержащее R. Но такого A не существует (по Регулярности x ∉ x всегда).

 Вывод: ZFC — это "свобода с ответственностью". Нельзя создавать
 множества "из воздуха" — только из уже построенных.


 Философский смысл аксиом
+---------------+----------------------------------------------------------+
| АКСИОМА       | ФИЛОСОФСКАЯ ИНТЕРПРЕТАЦИЯ                                |
+---------------+----------------------------------------------------------+
| Пустое мн-во  | Формализация "пустоты" — постулируем, что она существует |
+---------------+----------------------------------------------------------+
| Бесконечность | Бесконечность — не очевидность, а выбор играть в такую   |
|               | математику. Можно строить математику без этой аксиомы    |
+---------------+----------------------------------------------------------+
| Выделение     | Ограничение на "наивное" создание множеств — урок из     |
|               | парадокса Рассела. Свобода с ответственностью            |
+---------------+----------------------------------------------------------+
| Регулярность  | Всё строится иерархически из ∅. Нет "висящих в воздухе"  |
|               | или самореферентных конструкций                          |
+---------------+----------------------------------------------------------+

-------------------------------------------------------------------------------
 Визуализация: кумулятивная иерархия — "башня множеств"
-------------------------------------------------------------------------------

 Аксиомы ZFC порождают всю математику из ничего (пустого множества).
 Это происходит уровень за уровнем — кумулятивная иерархия V_α.


   V_ω+1  | 𝒫(V_ω) — степень бесконечного множества
          | Включает ℝ, все функции ℕ → ℕ, ...
          | Это уже несчётно.
   -------+--------------------------------------------------------------
          |
   V_ω    | V₀ ∪ V₁ ∪ V₂ ∪ ... — первый бесконечный уровень
          | Включает ℕ, все конечные множества, все конечные структуры
   -------+--------------------------------------------------------------
    ⋮      | ⋮
   V₃     | 𝒫(V₂) = все подмножества V₂
          | |V₃| = 2² = 4 элемента
   -------+--------------------------------------------------------------
   V₂     | 𝒫(V₁) = {∅, {∅}}
          | 2 элемента — можно отождествить с {0, 1}
   -------+--------------------------------------------------------------
   V₁     | 𝒫(V₀) = 𝒫(∅) = {∅}
          | 1 элемент — это "1" в конструкции натуральных чисел
   -------+--------------------------------------------------------------
   V₀     | ∅ — пустое множество, начало всего
          | 0 элементов — это "0"
   =======╧==============================================================

 Рост размеров:

   |V₀| = 0
   |V₁| = 2⁰ = 1
   |V₂| = 2¹ = 2
   |V₃| = 2² = 4
   |V₄| = 2⁴ = 16
   |V₅| = 2¹⁶ = 65536
   |V₆| = 2^65536 ≈ 10^19728 — уже непредставимо.
   ...
   |V_ω| = ℵ₀ (счётная бесконечность)
   |V_{ω+1}| = 2^{ℵ₀} = |ℝ| (континуум)

 Вывод: Вся математика "вырастает" из ∅ применением одной операции 𝒫.


 Где живут знакомые объекты

 +----------------------+--------------------------------+
 | ОБЪЕКТ               | ПЕРВЫЙ УРОВЕНЬ, ГДЕ ПОЯВЛЯЕТСЯ |
 +----------------------+--------------------------------+
 | ∅ = 0                | V₀                             |
 | 1 = {∅}              | V₁                             |
 | 2 = {∅, {∅}}         | V₂                             |
 | n (любое конечное)   | V_n                            |
 | ℕ (как множество)    | V_ω                            |
 | Функция f: ℕ → ℕ     | V_{ω+1} (как подмножество ℕ×ℕ) |
 | ℝ (как мн-во Дедек.) | V_{ω+1}                        |
 | Функция f: ℝ → ℝ     | V_{ω+2}                        |
 | Пространство C[0,1]  | V_{ω+2}                        |
 +----------------------+--------------------------------+

 Почти вся "рабочая" математика живёт в V_{ω+ω} — относительно низко.
 Большие кардиналы (недостижимые, измеримые, ...) требуют очень высоких V_α.


===============================================================================
Аксиома выбора — особый статус
===============================================================================
-------------------------------------------------------------------------------
 Аксиома выбора (AC)
-------------------------------------------------------------------------------

 Формула: ∀𝒜: (∀A∈𝒜: A≠∅) → ∃f: ∀A∈𝒜: f(A)∈A

 Смысл: Для любого семейства непустых множеств существует функция,
        выбирающая по одному элементу из каждого.

 Слово "одновременно" — психологическое, а не математическое.
    Математически: существует функция выбора f.
    Никакого "процесса выбирания" нет — функция просто есть (или нет).

        +---+  +---+  +---+  +---+
        | ● |  | ▲ |  | ■ |  | ◆ |  ...  бесконечно много коробок
        | ○ |  | △ |  | □ |  | ◇ |
        +---+  +---+  +---+  +---+
          ↓      ↓      ↓      ↓
          ●      ▲      ■      ◆    ← функция выбора f существует

 Без AC в некоторых моделях ZF: произведение непустых множеств пусто.
 Это не "мы не можем выбрать", а "выбора буквально не существует".


 Почему аксиома выбора неочевидна
+------------------------+------------------------------------------------+
| СЛУЧАЙ                 | СИТУАЦИЯ                                       |
+------------------------+------------------------------------------------+
| Конечное число коробок | Очевидно — просто перебираем (AC не нужна)     |
+------------------------+------------------------------------------------+
| Счётное число          | Достаточно счётной аксиомы выбора (AC_ω)       |
|                        | — более слабой, чем полная AC                  |
+------------------------+------------------------------------------------+
| Несчётное число        | Как выбрать? Алгоритма нет. AC утверждает, что |
|                        | функция существует, даже без явного построения |
+------------------------+------------------------------------------------+

-------------------------------------------------------------------------------
 Что следует из аксиомы выбора
-------------------------------------------------------------------------------

 Хорошие следствия:

   • Любое векторное пространство имеет базис
   • Любой идеал содержится в максимальном идеале
   • Теорема Тихонова: произведение компактов компактно
   • Теорема Хана-Банаха: продолжение линейных функционалов
   • Любые два кардинала сравнимы: |A| ≤ |B| или |B| ≤ |A|

 Парадоксальные следствия:

   • Парадокс Банаха-Тарского:
     Шар можно разрезать на 5 частей и собрать два таких же шара.
     (части — не "обычные" куски, а патологические множества точек)
   • Существуют неизмеримые множества (по Лебегу)

 Статус:
   Аксиома выбора независима от ZF — её нельзя ни доказать, ни опровергнуть.
   Можно работать с ней (ZFC) или без неё (ZF). Большинство математиков
   принимают AC.

-------------------------------------------------------------------------------
 "Выбор" в философии vs "выбор" в аксиоме
-------------------------------------------------------------------------------

 В философском фундаменте "выбор" = способность субъекта различать,
 проводить границы, выделять объекты из пустоты. Это онтологический выбор.

 В аксиоме выбора "выбор" = существование функции, сопоставляющей элемент
 каждому множеству. Это техническая возможность.

 Связь:
   Философский выбор — первичен (без него нет математики вообще).
   Аксиома выбора — конкретное правило игры, которое можно принять или нет.

 Разница:
   Философский выбор: "Я могу выделить объект"
   Аксиома выбора: "Для любого (даже несчётного) семейства существует
                    способ одновременного выбора"

-------------------------------------------------------------------------------
 Зачем всё это нужно
-------------------------------------------------------------------------------

 Аксиомы ZFC — это не "истины о мире".
 Это правила игры, которые:

   1. Достаточно сильны, чтобы построить всю известную математику
   2. Достаточно ограничены, чтобы избежать парадоксов
   3. (Насколько известно) непротиворечивы
   4. Неполны (теорема Гёделя, 1931): существуют истинные утверждения
      о натуральных числах, недоказуемые в ZFC

 Неполнота — не баг, а фундаментальное свойство любой достаточно богатой
 формальной системы. ZFC не может доказать свою непротиворечивость изнутри.

 Когда далее мы пишем "существует множество X" или "выберем элемент из Y",
 мы опираемся на эти аксиомы. Математика — это следствия этих правил.

 Теперь, имея фундамент, можно строить числа.


-------------------------------------------------------------------------------
Теоремы Гёделя — границы формальных систем
-------------------------------------------------------------------------------

 Контекст:

 Теоремы Гёделя (1931) — это не абстрактная логика. Это фундаментальные
 результаты о том, что может и чего не может математика:

   • Почему некоторые задачи принципиально неразрешимы
   • Почему машина не может заменить математика полностью
   • Почему "истина" и "доказуемость" — разные вещи
   • Почему мы не можем быть уверены в непротиворечивости математики

 Для инженера: если задача неразрешима — это не наша вина, а граница теории.

-------------------------------------------------------------------------------
 Первая теорема Гёделя о неполноте
-------------------------------------------------------------------------------

 Формулировка (упрощённая):

   В любой непротиворечивой формальной системе, достаточно богатой,
   чтобы описать арифметику натуральных чисел, существует утверждение G,
   которое:
     • истинно (в стандартной интерпретации)
     • недоказуемо в этой системе

 Интуиция — "Парадокс лжеца":

   Рассмотрим предложение: "Это предложение ложно."
   Если оно истинно — значит оно ложно (противоречие).
   Если оно ложно — значит оно истинно (противоречие).
   Парадокс. Это предложение не имеет значения истинности.

   Гёдель построил математический аналог:
   "Это утверждение недоказуемо в системе S."

   Если оно доказуемо — мы доказали ложь (система противоречива).
   Если система непротиворечива — оно недоказуемо.
   Но тогда оно истинно (ведь оно говорит о своей недоказуемости).

 Идея доказательства:

   1. Гёдель закодировал формулы как числа (гёделева нумерация)
      Каждому символу — число, формуле — произведение степеней простых

   2. Доказательства тоже стали числами
      "x — доказательство формулы y" — это арифметическое соотношение.

   3. Построил формулу G, говорящую о себе:
      G = "Не существует числа, кодирующего доказательство формулы G"

 Следствие: ZFC (и любая "разумная" система) неполна.
   Существуют истинные утверждения о числах, которые ZFC не докажет.

-------------------------------------------------------------------------------
 Вторая теорема Гёделя о неполноте
-------------------------------------------------------------------------------

 Формулировка:

   Непротиворечивая система, достаточно богатая для арифметики,
   не может доказать свою собственную непротиворечивость.

 Интуиция:

   Утверждение Con(S) = "Система S непротиворечива" можно записать
   как арифметическую формулу (через гёделеву нумерацию).

   Гёдель показал: Con(S) → G
   (Если S непротиворечива, то G истинно)

   Если бы S доказывала Con(S), она доказала бы G.
   Но G недоказуема (по первой теореме).
   Значит, Con(S) тоже недоказуема в S.

 Философский смысл:

   Математика не может гарантировать свою собственную надёжность.
   Мы не можем доказать, что ZFC не приведёт к противоречию.
   Мы просто верим в это (и пока противоречий не нашли за 100 лет).

   Это похоже на bootstrapping: нельзя проверить компилятор самим собой.


 Что это означает на практике

 +----------------------------------+---------------------------------+
 | Неполнота не означает            | Неполнота означает              |
 +----------------------------------+---------------------------------+
 | "Математика бесполезна"          | Есть принципиальные границы     |
 | "Ничего нельзя доказать"         | Некоторые вопросы неразрешимы   |
 | "Компьютеры не могут доказывать" | Полная автоматизация невозможна |
 | "Нужно отказаться от формализма" | Интуиция остаётся важной        |
 +----------------------------------+---------------------------------+

 Примеры неразрешимых утверждений:

   • Континуум-гипотеза: |ℝ| = ℵ₁?  — независима от ZFC
   • Аксиома выбора — независима от ZF
   • Некоторые комбинаторные утверждения (Пэрис-Харрингтон)

 Для инженера:

   99.9% практических задач не затронуты неполнотой.
   Теоремы Гёделя важны для понимания границ, а не для ежедневной работы.
   Если алгоритм не находит решение — возможно, задача неразрешима,
   но обычно нужно просто искать лучше.

 Единая идея: Существуют вопросы, на которые формальная система
 не может ответить. Это не слабость — это теорема.


===============================================================================
Отношения — как из множеств возникает структура
===============================================================================

"Вся математика = изучение отношений между объектами"

 Отношение = способ сказать "эти объекты как-то связаны"

 В обыденной жизни мы постоянно используем отношения:

   • "Иван — отец Петра"        (отношение "быть отцом")
   • "Москва больше Твери"      (отношение "больше по населению")
   • "5 меньше 7"               (отношение "меньше")
   • "Эти два треугольника подобны" (отношение "подобие")
   • "A и B — друзья"           (отношение "дружба")

 Ключевая идея: Отношение — это просто множество пар (или троек, и т.д.),
 которые мы считаем "связанными".

   "меньше" на ℕ = {(1,2), (1,3), (2,3), (1,4), (2,4), (3,4), ...}

   Запись "3 < 5" означает просто "(3, 5) ∈ R", где R — отношение "меньше".

 Зачем формализация?
   • Можно доказывать свойства отношений
   • Можно комбинировать отношения (композиция)
   • Можно классифицировать отношения по свойствам
   • Основа для порядка, эквивалентности, функций


-------------------------------------------------------------------------------
Формальное определение
-------------------------------------------------------------------------------

 Декартово произведение

 A × B = {(a, b) | a ∈ A, b ∈ B}  — множество всех упорядоченных пар

 Пример: {1, 2} × {a, b} = {(1,a), (1,b), (2,a), (2,b)}

 Формальное определение пары:
   (a, b) := {{a}, {a, b}}

   Это позволяет отличить (a,b) от (b,a): {{a},{a,b}} ≠ {{b},{a,b}} при a≠b
   Важно: упорядоченная пара строится из неупорядоченных множеств.

 Обобщение на n множеств:
 A₁ × A₂ × ... × Aₙ = {(a₁, a₂, ..., aₙ) | aᵢ ∈ Aᵢ}  — n-кортежи

 Пример: ℝ × ℝ × ℝ = ℝ³ — трёхмерное пространство

-------------------------------------------------------------------------------
 Что такое отношение
-------------------------------------------------------------------------------

 n-арное отношение на множествах A₁, ..., Aₙ — это подмножество:

   R ⊆ A₁ × A₂ × ... × Aₙ

 Кортеж (a₁, ..., aₙ) ∈ R означает "элементы связаны отношением R".

 +-----------+-------------------------------------------------------------+
 | АРНОСТЬ   | ПРИМЕРЫ                                                     |
 +-----------+-------------------------------------------------------------+
 |           |                                                             |
 | Унарное   | R ⊆ A  — просто подмножество (свойство)                     |
 | (n = 1)   | "чётные" ⊆ ℤ = {x ∈ ℤ | x делится на 2}                     |
 |           |                                                             |
 | Бинарное  | R ⊆ A × B  — связь между двумя элементами                   |
 | (n = 2)   | "меньше" ⊆ ℝ × ℝ = {(x,y) | x < y}                         |
 |           | "делит" ⊆ ℕ × ℕ = {(a,b) | a | b}                           |
 |           |                                                             |
 | Тернарное | R ⊆ A × B × C  — связь между тремя элементами               |
 | (n = 3)   | "между" ⊆ ℝ × ℝ × ℝ = {(x,y,z) | x < y < z}             |
 |           | "сумма" = {(a,b,c) | a + b = c}                             |
 |           |                                                             |
 | n-арное   | Таблица в базе данных с n столбцами.                        |
 |           | Каждая строка — кортеж, таблица — отношение                 |
 |           |                                                             |
 +-----------+-------------------------------------------------------------+

-------------------------------------------------------------------------------
Важнейшие бинарные отношения
-------------------------------------------------------------------------------

Далее — таблица бинарных отношений, из которых строится вся математика.

+------------------+----------------------+----------------------------------+
|  ОТНОШЕНИЕ       |  СВОЙСТВА            |  ПРИМЕРЫ / ВИЗУАЛИЗАЦИЯ          |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 1. принадлежность| Базовое отношение    | • 3 ∈ ℕ                          |
|    x ∈ A         | Не рефлексивно       | • π ∈ ℝ                          |
|                  | (x ∉ x обычно)       | • {1} ∈ 𝒫(ℕ)                     |
| "элемент         |                      |                                  |
|  множества"      | Фундамент теории     |    A                             |
|                  | множеств             |   +-----+                        |
|                  |                      |   |  ●  | ← x ∈ A                |
|                  |                      |   +-----+                        |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 2. включение     | • Рефлексивна:       | • ℕ ⊆ ℤ ⊆ ℚ ⊆ ℝ ⊆ ℂ              |
|    A ⊆ B         |   A ⊆ A              | • {1,2} ⊆ {1,2,3}                |
|                  | • Транзитивна:       | • ∅ ⊆ A для любого A             |
| "подмножество"   |   A⊆B, B⊆C ⇒ A⊆C     |                                  |
|                  | • Антисимметрична:   |   +---------+                    |
|                  |   A⊆B, B⊆A ⇒ A=B     |   |    B    |                    |
|                  |                      |   |  +---+  |                    |
|                  | Частичный порядок    |   |  | A |  |                    |
|                  | на 𝒫(X)              |   |  +---+  |                    |
|                  |                      |   +---------+                    |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 3.эквивалентность| • Рефлексивна:       | • Равенство чисел (=)            |
|    x ~ y         |   x ~ x              | • Подобие треугольников          |
|                  | • Симметрична:       | • Сравнимость по модулю:         |
| "неразличимы     |   x~y ⇒ y~x          |   a ≡ b (mod n)                  |
|  относительно    | • Транзитивна:       | • Изоморфизм структур            |
|  свойства"       |   x~y, y~z ⇒ x~z     |                                  |
|                  |                      | Разбивает X на классы:           |
|                  | Даёт факторизацию:   |  +---+---+---+                   |
|                  | X/~ (фактормножество)|  |[x]|[y]|[z]|                   |
|                  |                      |  +---+---+---+                   |
|                  |                      |  классы эквивалентности          |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 4. (полный)      | • Рефлексивна:       | • ≤ на ℝ                         |
|    ПОРЯДОК       |                      |                                  |
|     x ≤ y        |   x ≤ x              | • Лексикографический на строках  |
|                  | • Антисимметрична:   | • Хронологический (время)        |
| "не больше"      |   x≤y, y≤x ⇒ x=y     |                                  |
|                  | • Транзитивна:       |      a ≤ b ≤ c ≤ d               |
|                  |   x≤y, y≤z ⇒ x≤z     |      ●---●---●---●               |
|                  | • ПОЛНОТА:           |                                  |
|                  |   ∀x,y: x≤y ∨ y≤x    |  Любые два элемента сравнимы     |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 5. частичный     | Как полный порядок,  | • ⊆ на 𝒫(X)                      |
|    порядок       | но без полноты       | • Делимость | на ℕ               |
|    x ⪯ y         |                      | • Импликация ⇒ на высказываниях  |
|                  | ∃x,y: несравнимы     |                                  |
| "не больше, но   |                      |      +--d--+                     |
|  не всегда       | Диаграмма Хассе:     |      |     |                     |
|  сравнимы"       |                      |      b     c  ← несравнимы       |
|                  |                      |      |     |                     |
|                  |                      |      +--a--+                     |
|                  |                      |                                  |
|                  |                      | Пример: {1,2} и {1,3}            |
|                  |                      | несравнимы по ⊆                  |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 6. функция       | • Тотальна:          | • f(x) = x²                      |
|    f: A → B      |   ∀a ∈ A: ∃b         | • sin: ℝ → [-1,1]                |
|                  | • Однозначна:        | • det: M_n → ℝ                   |
| "правило         |   f(a) определено    |                                  |
|  соответствия"   |   единственно        |   A = {1, 2}    B = {a, b, c}    |
|                  |                      |                                  |
|                  | Подмножество A×B с   |     1 --→ a                      |
|                  | условиями выше       |     2 --→ b                      |
|                  |                      |                                  |
|                  |                      |   Каждому элементу A             |
|                  |                      |   соответствует ровно один       |
|                  |                      |   элемент B                      |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 7. инъекция      | Функция с доп.       | • f(x) = 2x                      |
|    f: A ↣ B      | свойством:           | • exp: ℝ → ℝ⁺                    |
|                  |                      | • вложение ℕ в ℤ                 |
| "один к одному"  | f(x₁) = f(x₂)        |                                  |
|                  |   ⇒ x₁ = x₂          |   A = {1, 2}    B = {a, b, c}    |
|                  |                      |                                  |
|                  | Разные входы →       |     1 --→ a                      |
|                  | разные выходы        |     2 --→ b                      |
|                  |                      |           c  (не задействован)   |
|                  | Сохраняет различия   |                                  |
|                  |                      |   |A| ≤ |B|, в B могут быть      |
|                  |                      |   "лишние" элементы              |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 8. сюръекция     | Функция с доп.       | • f: ℝ → ℝ, f(x) = x³            |
|    f: A ↠ B      | свойством:           | • проекция ℝ² → ℝ: (x,y) ↦ x     |
|                  |                      |                                  |
| "на"             | ∀b ∈ B: ∃a ∈ A       |   A = {1, 2, 3}   B = {a, b}     |
|                  | такое, что f(a) = b  |                                  |
|                  |                      |     1 --→ a                      |
|                  | Накрывает весь B     |     2 --→ a  (оба в одну точку)  |
|                  |                      |     3 --→ b                      |
|                  | Каждый элемент B     |                                  |
|                  | имеет прообраз       |   |A| ≥ |B|, каждый элемент B    |
|                  |                      |   достигается хотя бы одним      |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 9. биекция       | Функция, которая     | • f: ℝ → ℝ, f(x) = x             |
|    f: A ↔ B      | одновременно:        | • exp: ℝ → ℝ⁺                    |
|                  | • Инъекция           | • любой изоморфизм               |
| "взаимно-        | • Сюръекция          |                                  |
|  однозначное     |                      |   A = {1, 2, 3}   B = {a, b, c}  |
|  соответствие"   | Существует обратная  |                                  |
|                  | f⁻¹: B → A           |     1 ←-→ a                      |
|                  |                      |     2 ←-→ b                      |
|                  | |A| = |B|            |     3 ←-→ c                      |
|                  | (равномощны)         |                                  |
|                  |                      |   Идеальное соответствие:        |
|                  |                      |   каждому a — ровно один b,      |
|                  |                      |   и наоборот                     |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+

-------------------------------------------------------------------------------
Морфизм — функция, сохраняющая структуру
-------------------------------------------------------------------------------

Теперь, когда мы знаем что такое функция, можно определить морфизм.

 Ключевое понятие: Морфизм


 Функция (= Отображение) — правило f: A → B, сопоставляющее каждому
 элементу a ∈ A единственный элемент f(a) ∈ B.

 Морфизм — функция между структурами, которая сохраняет структуру.

 Изоморфизм — обратимый морфизм (биекция, сохраняющая структуру).
              Означает "структуры одинаковы с точностью до имён элементов".

+-----------------+------------------------+------------------------------+
| СТРУКТУРА       | МОРФИЗМ НАЗЫВАЕТСЯ     | ЧТО СОХРАНЯЕТ                |
+-----------------+------------------------+------------------------------+
| Множества       | Функция                | (ничего — базовый случай)    |
| Группы          | Гомоморфизм            | Операцию: φ(ab) = φ(a)φ(b)   |
| Кольца          | Гомоморфизм колец      | Обе операции: +, ×           |
| Векторные пр-ва | Линейное отображение   | Линейность: T(αu+βv)=αTu+βTv |
| Топологии       | Непрерывное отображ.   | Открытые множества           |
| Многообразия    | Гладкое отображение    | Гладкость                    |
| Порядки         | Монотонное отображение | Порядок: a≤b ⇒ f(a)≤f(b)     |
+-----------------+------------------------+------------------------------+

 Формула ≠ Функция (частая ошибка)


 Формула: способ вычисления, например f(x) = x²
 Функция: тройка (область A, кообласть B, правило соответствия)

 Почему это разные вещи:

 1. Одна функция — много формул:
    f(x) = x² = (x+1)² − 2x − 1 = x·x = ...   (разные записи одного)

 2. Одна формула — разные функции (зависит от области):
    +-----------+---------+-----------+-----------------------------+
    | ФОРМУЛА   | ОБЛАСТЬ | КООБЛАСТЬ | СВОЙСТВА                    |
    +-----------+---------+-----------+-----------------------------+
    | f(x) = x² | ℝ       | ℝ         | не инъективна: f(2) = f(−2) |
    | g(x) = x² | ℝ⁺      | ℝ⁺        | Инъективна и сюръективна.   |
    | h(z) = z² | ℂ       | ℂ         | Совсем другой объект        |
    +-----------+---------+-----------+-----------------------------+

 3. Функции без формул:
    D(x) = 1 если x ∈ ℚ, иначе 0  (функция Дирихле — нет "формулы".)

 Вывод: Функция = тройка (A, B, f: A → B).
        Формула — лишь один способ задать правило.


 Образ и прообраз множества

 Для функции f: A → B и подмножеств S ⊆ A, T ⊆ B:

 +-----------------+---------------------------------------+
 | ПОНЯТИЕ         | ОПРЕДЕЛЕНИЕ                           |
 +-----------------+---------------------------------------+
 | Образ множества | f(S) = {f(x) : x ∈ S}                 |
 | f(S)            | = все значения f на элементах S       |
 +-----------------+---------------------------------------+
 | Прообраз мн-ва  | f⁻¹(T) = {x ∈ A : f(x) ∈ T}           |
 | f⁻¹(T)          | = все точки, которые f отправляет в T |
 +-----------------+---------------------------------------+

 Важно: f⁻¹(T) — это не обратная функция.
    Прообраз определён всегда, даже если f необратима.
    Обратная функция f⁻¹: B → A существует только для биекций.

 Примеры:
   f(x) = x², f: ℝ → ℝ
   f({1, 2, 3}) = {1, 4, 9}                 — образ множества
   f⁻¹({4}) = {−2, 2}                       — прообраз точки
   f⁻¹({y : y > 0}) = ℝ \ {0}               — прообраз интервала
   f⁻¹({−1}) = ∅                            — прообраз может быть пуст

 Свойства:
   • f(S₁ ∪ S₂) = f(S₁) ∪ f(S₂)             — образ объединения
   • f⁻¹(T₁ ∪ T₂) = f⁻¹(T₁) ∪ f⁻¹(T₂)       — прообраз объединения
   • f⁻¹(T₁ ∩ T₂) = f⁻¹(T₁) ∩ f⁻¹(T₂)       — прообраз пересечения
   • f(S₁ ∩ S₂) ⊆ f(S₁) ∩ f(S₂)             — для образа только ⊆ !

 Применение: Топология использует прообразы для определения непрерывности:
   f непрерывна ⟺ прообраз открытого множества открыт


Ключевые паттерны:

Проверка свойств отношения R:
  1. Рефлексивность: xRx для всех x?
  2. Симметричность: xRy ⇒ yRx?
  3. Транзитивность: xRy, yRz ⇒ xRz?
  4. Антисимметричность: xRy, yRx ⇒ x=y?

Комбинации определяют тип:
  • Рефлексивность + Симметричность + Транзитивность = Эквивалентность (разбиение на классы)
  • Рефлексивность + Антисимметричность + Транзитивность = Частичный порядок
  • + Полнота = Линейный порядок

-------------------------------------------------------------------------------
Отношения эквивалентности и классы эквивалентности
-------------------------------------------------------------------------------

 Интуиция: Эквивалентность = "Одинаковы с какой-то точки зрения"

 Равенство (=) — слишком строгое требование. Часто нам важно не полное
 тождество, а "одинаковость" по какому-то критерию:

   • Два человека "эквивалентны" по возрасту (им обоим 25 лет)
   • Два треугольника "эквивалентны" по форме (подобны)
   • Две дроби "эквивалентны" по значению (1/2 = 2/4 = 3/6)
   • Два числа "эквивалентны" по остатку от деления на 3

 Формально: отношение ~ называется эквивалентностью, если оно:

   1. Рефлексивно:  a ~ a      (каждый эквивалентен себе)
   2. Симметрично:  a ~ b ⇒ b ~ a  (порядок не важен)
   3. Транзитивно:  a ~ b, b ~ c ⇒ a ~ c  (эквивалентность "передаётся")

-------------------------------------------------------------------------------
 Класс эквивалентности = все, кто "одинаковы" с данным
-------------------------------------------------------------------------------

 Если ~ — эквивалентность на множестве X, то класс эквивалентности
 элемента a — это множество всех элементов, эквивалентных a:

   [a] = {x ∈ X | x ~ a}

 Ключевой факт: Классы эквивалентности разбивают множество X:

   • Каждый элемент x ∈ X лежит ровно в одном классе
   • Разные классы не пересекаются
   • Объединение всех классов = X

 Визуализация:

   Множество X:                  После разбиения X/~:
   +-----------------------+     +-----------------------+
   | ● ●   ○ ○ ○    ▪ ▪    |     |  [●]   [○]   [▪]      |
   |   ●   ○        ▪ ▪ ▪  |  →  |                       |
   |       ○ ○          ▪  |     | 3 класса              |
   +-----------------------+     +-----------------------+
   (элементы одного "типа"       (каждый класс — один
    отмечены одинаково)           элемент фактормножества)

-------------------------------------------------------------------------------
 Конкретные примеры классов эквивалентности
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Пример 1: Остатки от деления (модулярная арифметика)
-------------------------------------------------------------------------------

   Множество: ℤ (все целые числа)
   Отношение: a ~ b ⟺ a − b делится на 3  (записывают: a ≡ b (mod 3))

   Классы эквивалентности:
     [0] = {..., −6, −3, 0, 3, 6, 9, ...}   — числа с остатком 0
     [1] = {..., −5, −2, 1, 4, 7, 10, ...}  — числа с остатком 1
     [2] = {..., −4, −1, 2, 5, 8, 11, ...}  — числа с остатком 2

   Фактормножество: ℤ/3ℤ = {[0], [1], [2]} — всего 3 класса.
   (Это кольцо остатков — основа криптографии)

-------------------------------------------------------------------------------
 Пример 2: Дроби (рациональные числа)
-------------------------------------------------------------------------------

   Множество: ℤ × ℤ* = {(a, b) | a,b ∈ ℤ, b ≠ 0} — пары "числитель/знамен."
   Отношение: (a,b) ~ (c,d) ⟺ a·d = b·c  (дроби равны)

   Классы эквивалентности:
     [(1,2)] = {(1,2), (2,4), (3,6), (−1,−2), ...}  — все формы "одной
     [(1,3)] = {(1,3), (2,6), (−1,−3), ...}          половины"

   Рациональное число — это класс эквивалентности, а не конкретная дробь.
   ℚ = (ℤ × ℤ*)/~ — множество классов эквивалентности пар.

-------------------------------------------------------------------------------
 Пример 3: Подобие треугольников
-------------------------------------------------------------------------------

   Множество: все треугольники на плоскости
   Отношение: T₁ ~ T₂ ⟺ углы T₁ равны углам T₂

   Класс эквивалентности: все треугольники одной "формы" (разных размеров)

         +-+              +---+
        ╱   ╲            ╱     ╲
       ╱ 60° ╲          ╱  60°  ╲
      ╱       ╲        ╱         ╲          Все три — в одном
     ╱ 60° 60° ╲      ╱  60° 60°  ╲         классе эквивалентности
    +-----------+    +-------------+        (равносторонние)

-------------------------------------------------------------------------------
 Пример 4: Вещественные числа (конструкция через Коши)
-------------------------------------------------------------------------------

   Множество: все последовательности Коши рациональных чисел
   Отношение: {aₙ} ~ {bₙ} ⟺ |aₙ − bₙ| → 0

   Вещественное число — это класс эквивалентности последовательностей.
   Пример: √2 = [{1, 1.4, 1.41, 1.414, 1.4142, ...}]

   (Бесконечно много последовательностей сходятся к √2 — они все
    эквивалентны и образуют один класс, который мы называем числом √2)

-------------------------------------------------------------------------------
 Пример 5: Гомотопические классы путей (топология)
-------------------------------------------------------------------------------

   Множество: все пути из A в B в пространстве X
   Отношение: γ₁ ~ γ₂ ⟺ γ₁ можно непрерывно деформировать в γ₂

   Фундаментальная группа π₁(X) = классы эквивалентности замкнутых путей.
   Эта конструкция — основа алгебраической топологии.

-------------------------------------------------------------------------------
 Фактормножество X/~ — "склеивание" эквивалентных элементов
-------------------------------------------------------------------------------

 Фактормножество X/~ — это множество классов эквивалентности:

   X/~ = {[a] | a ∈ X}

 Интуиция: Мы "склеиваем" все эквивалентные элементы в одну точку.

 Проекция: Каноническое отображение π: X → X/~, где π(a) = [a].
   Оно "забывает" различия между эквивалентными элементами.

 Главная теорема (Универсальное свойство):

   Любая функция f: X → Y, постоянная на классах эквивалентности
   (т.е. a ~ b ⇒ f(a) = f(b)), единственным образом пропускается
   через фактормножество:

           X ------f------→ Y
           |                ↗
         π |            f̄  (существует единственная)
           ↓           ╱
          X/~ --------╱

 Где это используется:
   • ℤₙ = ℤ/nℤ         (модулярная арифметика, криптография)
   • ℚ = (ℤ×ℤ*)/~     (конструкция рациональных чисел)
   • ℝ = Коши/~        (конструкция вещественных чисел)
   • ℂ = ℝ[x]/(x²+1)  (конструкция комплексных чисел)
   • Проективное пространство ℙⁿ = (ℝⁿ⁺¹ \ 0)/~
   • Торы, бутылки Клейна и др. топологические объекты

 Интуиция: от часов к комплексным числам

   ℤ/12ℤ — арифметика часов. Мы "наматываем" целые числа на циферблат:
   13 часов = 1 час, потому что 13 ≡ 1 (mod 12). Мы объявили 12 = 0.

   ℝ[x]/(x²+1) — то же самое, но с многочленами. Мы "наматываем"
   многочлены, объявляя x²+1 = 0, то есть x² = −1.
   Получается: x — это "новое число", квадрат которого равен −1.
   Это и есть мнимая единица i. Комплексные числа a + bi — это
   многочлены степени ≤ 1 с арифметикой по модулю (x²+1).


 Зачем инженеру классы эквивалентности?

 1. Модулярная арифметика (ℤₙ):
    Хеш-функции, контрольные суммы, криптография — всё это работа
    с классами остатков.

 2. Конечные автоматы:
    Минимизация автомата = объединение "эквивалентных" состояний
    (тех, которые невозможно различить входными данными).

 3. Размерный анализ:
    Физические величины с одинаковой размерностью — один класс.
    "Метры в секунду" — это класс всех способов выразить скорость.

 4. Координаты:
    Тензор — это класс эквивалентности наборов чисел (координат),
    где два набора эквивалентны, если связаны законом преобразования.

 5. Кластеризация:
    Разбиение данных на кластеры — это фактически построение классов
    эквивалентности по критерию "похожести".


Философия:

  Математика изучает не сами объекты, а отношения между ними.
  Функция f: A → B важнее, чем A и B по отдельности.
  Современная математика (категорная) — это "математика стрелок".

===============================================================================
Отображения — как связываются структуры
===============================================================================

Примечания: Этот раздел — обзор типов отображений. Термины "группа",
"топология", "многообразие" определены в Части II.
Здесь они используются для иллюстрации общего паттерна.

В разделе «Отношения» мы определили функцию и морфизм. Здесь — подробные примеры.

"Хороший морфизм сохраняет структуру"

-------------------------------------------------------------------------------
Предварительное замечание о категориях
-------------------------------------------------------------------------------

 Все примеры ниже — частные случаи одной идеи: морфизм.

   • Объекты (множества, группы, пространства, ...)
   • Стрелки между ними (функции, гомоморфизмы, непрерывные отобр., ...)
   • Композиция стрелок (применить одну, потом другую)

 Это и есть категория — язык, объединяющий всю математику.
 Сейчас достаточно знать: разные виды отображений в таблице ниже — это
 морфизмы в разных категориях.

   Категория множеств:   морфизмы = функции
   Категория групп:      морфизмы = гомоморфизмы
   Категория топол. пр.: морфизмы = непрерывные отображения
   Категория вект. пр.:  морфизмы = линейные операторы


+----------------------+--------------------------+--------------------------+
| ПРЕОБРАЗОВАНИЕ       |  СТРУКТУРА               |  ПРИМЕРЫ                 |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 1. функция           | Множество → Множество    | • f(x) = x + 1           |
|    f: A → B          |                          | • проекция (x,y) ↦ x     |
|                      | Ничего не сохраняет      | • любое отображение      |
| Базовое отображение  | (нет доп. структуры)     |                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 2. гомоморфизм       | Группа → Группа          | • exp: (ℝ,+) → (ℝ⁺,×)    |
|    φ: G → H          |                          |   exp(a+b) = exp(a)exp(b)|
|                      | φ(g₁ ∗ g₂) =             | • det: (GL(n),×) → (ℝ*,×)|
| Сохраняет операцию   |    = φ(g₁) ⊙ φ(g₂)       |   det(AB) = det(A)det(B) |
|                      |                          |   (GL(n) = обратимые n×n |
|                      |                          |    матрицы)              |
|                      |                          |                          |
| Автоморфизм если     | Изоморфизм если биекция  | • комплексное сопряжение |
| G = H                | (структуры "одинаковы")  |   z ↦ z̄ на ℂ             |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 3. линейный оператор | Вект.пр-во → Вект.пр-во  | • Поворот в ℝ²           |
|    T: V → W          |                          | • Проекция на подпр-во   |
|                      | T(αv + βw) =             | • Дифференцирование      |
| Сохраняет линейную   |    = αT(v) + βT(w)       |   D: C¹ → C⁰             |
| структуру            |                          |   D(af + bg) =           |
|                      | Матрица в базисе         |   = aD(f) + bD(g)        |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 4. непрерывное       | Топол.пр-во → Топол.пр-во| • f: ℝ → ℝ непрерывная   |
|    отображение       |                          | • Деформация резины      |
|    f: X → Y          | Прообраз открытого       | • Любое f: M → N (гладк.)|
|                      | открыт:                  |                          |
| Сохраняет "близость" | U ∈ τ_Y ⇒ f⁻¹(U) ∈ τ_X   | Гомеоморфизм если        |
|                      |                          | биекция + f⁻¹ непрерывна |
|                      |                          | (топологически "то же")  |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 5. диффеоморфизм     | Многообразие →           | • Любое гладкое обратимое|
|    f: M → N          | Многообразие             |   отображение            |
|                      |                          | • ℝ ≅ (0,1) через        |
| Гладкое + обратимое  | f и f⁻¹ гладкие          |   f(x) = x/(1+|x|)       |
|                      |                          |                          |
|                      | Сохраняет гладкую        | Показывает геометрическую|
|                      | структуру                | эквивалентность          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 6. производная       | Функция → Функция        | • D(x²) = 2x             |
|    d/dx              |                          | • D(sin) = cos           |
|                      | Линейный оператор:       | • D(eˣ) = eˣ             |
| Мгновенная скорость  | D(af + bg) = aD(f)+bD(g) |                          |
| изменения            |                          | Геометрия: касательная   |
|                      | Локальная аппроксимация  | к графику                |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 7. интеграл          | Функция → Число          | • ∫₀¹ x² dx = 1/3        |
|    ∫ₐᵇ f(x)dx        |                          | • ∫ sin x dx = -cos x+C  |
|                      | Линейный функционал:     |                          |
| Накопление           | ∫(af+bg) = a∫f + b∫g     | Геометрия: площадь под   |
| (площадь, масса)     |                          | графиком                 |
|                      | Обратная к производной   |                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 8. касательное       | Многообразие →           | • TₚS² — плоскость,      |
|    пространство      | Векторное пр-во          |   касающаяся сферы в p   |
|    TₚM               |                          | • TₚM — где "живут"      |
|                      | Искривлённое → Плоское   |   векторы скоростей      |
| "Плоскость в точке"  |                          |                          |
|                      | Функтор: M ↦ TₚM         | Линеаризация геометрии   |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 9. фундаментальная   | Топология → Алгебра      | • π₁(S¹) = ℤ             |
|    группа            |                          |   (окружность → целые)   |
|    π₁: Top → Grp     | Пространство ↦ Группа    | • π₁(S²) = {e}           |
|                      |                          |   (сфера тривиальна)     |
| функтор              | Петли с гомотопиями      | • π₁(T²) = ℤ × ℤ          |
|                      |                          |   (тор → две дыры)       |
| Геометрия → Алгебра  | "Дыры" превращает в      |                          |
|                      | алгебраическую структуру | Вычисление топологии     |
|                      |                          | через группы             |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 10. преобразование   | Функция → Функция        | • cos(ωt) ↔ δ(ω - ω₀)    |
|     Фурье            |                          | • Свёртка ↔ Умножение    |
|     ℱ: L²(ℝ) → L²(ℝ) | ℱ(f)(ω) = ∫ f(t)e⁻ⁱωᵗdt  |                          |
|                      |                          | Применения:              |
| Функтор              | Унитарный оператор       | • Обработка сигналов     |
| Время ↔ Частота      |                          | • Квантовая механика     |
|                      | Превращает дифф. ур-я    | • Дифф. уравнения        |
|                      | в алгебраические         |                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+

Общий паттерн:

  Хорошее преобразование сохраняет то, что важно:
    • Гомоморфизм сохраняет операцию
    • Непрерывное отображение сохраняет близость
    • Линейный оператор сохраняет линейность
    • Изометрия сохраняет расстояние

  Функтор — преобразование между категориями (подробно):
    Переводит объекты в объекты и стрелки в стрелки, сохраняя композицию.
    Пример: π₁ переводит топологические пространства в группы,
    а непрерывные отображения — в гомоморфизмы.

Зачем это нужно:

  1. Связь между областями: π₁ превращает топологию в алгебру
  2. Упрощение: Фурье превращает дифф. ур-я в алгебраические
  3. Понимание: касательное пространство делает геометрию плоской
  4. Вычисления: изоморфизм позволяет работать в удобной структуре

===============================================================================
Числа — как из пустоты возникают все числа
===============================================================================

-------------------------------------------------------------------------------
Построение натуральных чисел
-------------------------------------------------------------------------------

 Построение натуральных чисел из пустого множества (фон Нейман)

Вся математика возникает из единственного примитива: пустого множества ∅

+-------+-----------------------+------------------------------------+
| ЧИСЛО | ОПРЕДЕЛЕНИЕ           | ВИЗУАЛИЗАЦИЯ                       |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 0     | ∅                     | { }                                |
|       | Пустое множество      | Ничего нет                         |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 1     | {∅}                   | { { } }                            |
|       | Множество, содержащее | Коробка с пустой коробкой          |
|       | пустое множество      |                                    |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 2     | {∅, {∅}}             | { { }, { { } } }                   |
|       | = {0, 1}              | Коробка с: (пустой) и (коробкой    |
|       |                       | с пустой)                          |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 3     | {∅, {∅}, {∅, {∅}}}   | { { }, { { } }, { { }, { { } } } } |
|       | = {0, 1, 2}           | Коробка с 0, 1 и 2                 |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| n     | {0, 1, 2, ..., n-1}   | Множество всех предыдущих чисел    |
|       |                       |                                    |
|       | n = {k : k < n}    | n содержит в себе все числа        |
|       |                       | меньше себя                        |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+

Рекурсивное определение:

  0 := ∅
  n+1 := n ∪ {n}   (следующее число = предыдущее + множество с предыдущим)

Глубинный смысл:

  • Из ничего (∅) возникает всё
  • Каждое число содержит все предыдущие: 3 ⊃ 2 ⊃ 1 ⊃ 0
  • Число = "память" о всех предыдущих шагах
  • Построение чисел = последовательное проведение границ в пустоте

От натуральных к остальным:

  ℕ = {0, 1, 2, 3, ...}     (определено выше)
        ↓
  ℤ = ℕ × ℕ / ~             (пары (a,b) как "a - b", с эквивалентностью)
        ↓
  ℚ = ℤ × ℤ* / ~            (пары (p,q) как "p/q", q≠0)
        ↓
  ℝ = {сечения Дедекинда}   (или последовательности Коши в ℚ)
        ↓
  ℂ = ℝ × ℝ                 (пары (a,b) как "a + bi")

Всё строится из ∅ последовательными актами проведения границ.

-------------------------------------------------------------------------------
 Дедекиндово сечение — как создать иррациональные числа из рациональных
-------------------------------------------------------------------------------

 Проблема: В ℚ есть "дырки"
   Уравнение x² = 2 не имеет решения в ℚ (доказательство — от противного)
   Но на числовой прямой должна быть точка √2.

 Идея Дедекинда (1858): определить число через разрез прямой

 Определение:
   Сечение (A, B) множества ℚ — это разбиение ℚ на два непустых класса:

   • A — "нижний класс": все рациональные числа слева от разреза
   • B — "верхний класс": все рациональные числа справа от разреза
   • A ∪ B = ℚ,  A ∩ B = ∅
   • Любой элемент A меньше любого элемента B
   • В классе A нет наибольшего элемента (ключевое условие)

 Визуализация:

   Числовая прямая ℚ:
   ←--●--●--●--●--●--|--●--●--●--●--●--→
         A          ✂         B
                 (разрез)

   Сечение для √2:
   A = {q ∈ ℚ : q < 0  или  q² < 2}     (все "слева от √2")
   B = {q ∈ ℚ : q > 0  и  q² ≥ 2}       (все "справа от √2")

   В A нет наибольшего. Для любого q ∈ A с q² < 2 найдётся
   рациональное r > q с r² < 2.

 Определение вещественного числа:
   ℝ := {все сечения (A, B) множества ℚ}

 Два типа сечений:
   1. B имеет наименьший элемент q ∈ ℚ → сечение задаёт рациональное q
   2. B не имеет наименьшего элемента → сечение задаёт иррациональное число

 Арифметика сечений:
   (A₁, B₁) + (A₂, B₂) := (A₁ + A₂, ...) где A₁ + A₂ = {a₁ + a₂}
   Аналогично определяются умножение, порядок и т.д.

 Глубинный смысл:
   • Иррациональное число — это не объект, а граница между объектами
   • √2 — это не конкретная дробь, а место разреза числовой прямой
   • Снова акт проведения границы создаёт новую сущность

 Альтернатива — последовательности Коши:
   ℝ можно также определить как классы эквивалентности
   фундаментальных последовательностей в ℚ
   (последовательностей, где |aₙ − aₘ| → 0 при n, m → ∞)

   Пример: 1, 1.4, 1.41, 1.414, 1.4142, ... → √2

   Оба подхода дают одно и то же множество ℝ.

-------------------------------------------------------------------------------
 Последовательность Коши — сходимость без знания предела
-------------------------------------------------------------------------------

 Проблема: Как понять, что последовательность сходится,
           если мы не знаем, к чему она сходится?

 Идея Коши: Последовательность сходится, если её члены
            становятся сколь угодно близки друг к другу.

 Определение:
   Последовательность {aₙ} называется последовательностью Коши
   (или фундаментальной), если:

   ∀ε > 0  ∃N ∈ ℕ:  ∀n,m > N  ⇒  |aₙ − aₘ| < ε

   Словами: начиная с некоторого номера N, расстояние между
   любыми двумя членами меньше любого наперёд заданного ε.

 Визуализация:

   Обычная последовательность:
   "Все члены близки к пределу a"

         a₁    a₂  a₃ a₄a₅
    --●---●----●--●●●●------------→
                   ↑
                   a (предел)

   Последовательность Коши:
   "Все члены близки друг к другу"

         a₁      a₂    a₃  a₄ a₅ a₆ a₇.
    --●-------●-----●---●--●●●●●●--------→
                        +--+
                         <ε
                    "слипаются"

 Примеры:

   ✓ Коши: aₙ = 1/n
     |aₙ − aₘ| = |1/n − 1/m| ≤ 1/n + 1/m → 0
     Члены: 1, 0.5, 0.33, 0.25, 0.2, ...  (слипаются около 0)

   ✓ Коши: aₙ = 1 + 1/2 + 1/4 + ... + 1/2ⁿ
     Частичные суммы геом. прогрессии: 1, 1.5, 1.75, 1.875, ...
     Сходится к 2, члены всё ближе друг к другу

   ✗ Не Коши: aₙ = n
     |aₙ₊₁ − aₙ| = 1 — не стремится к 0, члены разбегаются

   ✗ Не Коши: aₙ = (−1)ⁿ
     |aₙ₊₁ − aₙ| = 2 — члены прыгают между −1 и 1

 Теорема (критерий Коши):
 +-------------------------------------------------------+
 |                                                       |
 | В ℝ (вещественных числах):                            |
 |                                                       |
 | Последовательность сходится ⟺ Последовательность Коши |
 |                                                       |
 +-------------------------------------------------------+

 Важно: В ℚ это не так.

   Последовательность 1, 1.4, 1.41, 1.414, 1.4142, ... является Коши в ℚ,
   но не сходится в ℚ, потому что √2 ∉ ℚ.

   Это называется неполнота ℚ.

 Полнота ℝ:
   Множество ℝ называется полным, потому что в нём
   каждая последовательность Коши имеет предел.
   Это ключевое свойство, отличающее ℝ от ℚ.

 Конструкция Коши для ℝ:
   ℝ = {классы эквивалентности последовательностей Коши в ℚ}

   Две последовательности {aₙ} ~ {bₙ} эквивалентны, если |aₙ − bₙ| → 0

   Пример: (1, 1.4, 1.41, ...) ~ (1.5, 1.42, 1.415, ...) — обе "представляют" √2

 Глубинный смысл:
   Критерий Коши позволяет говорить о сходимости
   внутренним образом — через сами члены последовательности,
   не привлекая понятие "предела" извне.

-------------------------------------------------------------------------------
 Мощности множеств — разные размеры бесконечности
-------------------------------------------------------------------------------

 Два множества имеют одинаковую мощность, если между ними есть биекция.
 Для конечных множеств это очевидно: |{a,b,c}| = |{1,2,3}| = 3.

 А для бесконечных? Кантор показал: есть разные бесконечности.

 Счётные множества (мощность ℵ₀ — "алеф-ноль"):
   Множество называется счётным, если существует биекция с ℕ.
   То есть элементы можно "пронумеровать": a₁, a₂, a₃, ...

   • ℕ — счётно (тривиально)
   • ℤ — счётно. Биекция: 0, 1, −1, 2, −2, 3, −3, ...
   • ℚ — счётно. (удивительно — "больше" чисел, но та же мощность)
   • ℕ × ℕ — счётно (диагональный обход)

 Несчётные множества (мощность > ℵ₀):
   • ℝ — несчётно.
   • (0,1) — несчётно (биекция с ℝ через tan)
   • 𝒫(ℕ) — несчётно (множество всех подмножеств ℕ)

-------------------------------------------------------------------------------
 Диагональный аргумент Кантора — почему ℝ несчётно
-------------------------------------------------------------------------------

 Теорема: Множество ℝ (или даже отрезок [0,1]) несчётно.

 Доказательство (от противного):

 Допустим, [0,1] счётно. Тогда все числа можно занумеровать:

   x₁ = 0. a₁₁ a₁₂ a₁₃ a₁₄ ...
   x₂ = 0. a₂₁ a₂₂ a₂₃ a₂₄ ...
   x₃ = 0. a₃₁ a₃₂ a₃₃ a₃₄ ...
   x₄ = 0. a₄₁ a₄₂ a₄₃ a₄₄ ...
   ...     ↘   ↘   ↘   ↘
              диагональ

 Построим число y = 0. b₁ b₂ b₃ b₄ ..., где:

   bₙ ≠ aₙₙ  (отличается от n-го числа в n-й цифре)

 Тогда y ≠ x₁ (отличается в 1-й цифре)
       y ≠ x₂ (отличается во 2-й цифре)
       y ≠ xₙ для любого n!

 Но y ∈ [0,1], значит y должно быть в списке. Противоречие.

 Вывод: [0,1] нельзя занумеровать. Множество ℝ несчётно.

 Глубинный смысл:
   Диагональный аргумент — универсальный метод. Он показывает:
   𝒫(A) всегда имеет бо́льшую мощность, чем A (теорема Кантора).
   Бесконечности образуют иерархию: ℵ₀ < 2^ℵ₀ < 2^(2^ℵ₀) < ...

-------------------------------------------------------------------------------
 Континуум-гипотеза — загадка без ответа
-------------------------------------------------------------------------------

 Мощность ℝ называется континуум и обозначается c или 2^ℵ₀.

 Вопрос Кантора (1878):
   Существует ли множество мощности между ℵ₀ и c?
   То есть: бывает ли бесконечность "посередине" между ℕ и ℝ?

 Континуум-гипотеза (CH): Нет, не существует. То есть c = ℵ₁.

 Шокирующий результат XX века:

   • Гёдель (1940): CH совместима с ZFC (нельзя опровергнуть)
   • Коэн (1963):   ¬CH тоже совместима с ZFC (нельзя доказать)

   ⇒ CH независима от аксиом ZFC.

 Это не вопрос "мы пока не знаем". Это принципиально: в рамках ZFC
 вопрос не имеет ответа. Можно работать в математике с CH или без неё.

 Философский урок:
   Есть осмысленные математические вопросы, на которые аксиомы не отвечают.
   Математика — не единственная "истинная" система, а семейство возможных.


===============================================================================
Расширение чисел — чего не хватает?
===============================================================================

 Главная идея:

 Каждая числовая система возникает как ответ на вопрос:
 "Какое уравнение не имеет решения?"

 Расширяем числа → получаем решение → теряем какое-то свойство

 Терминология (строгие определения):
   • Поле = множество с +, ×, где всё кроме 0 обратимо (ℚ, ℝ, ℂ)
   • Кольцо = поле без обязательного деления (ℤ)
   • Алгебра с делением = "почти поле", но возможно некоммутативное (ℍ, 𝕆)


 Иерархия числовых систем
+-------+-------------+---------+----------------------+------------------+
| ЧИСЛО | УРАВНЕНИЕ   | РЕШЕНИЕ | ЧТО ТЕРЯЕМ           | ЧТО ПОЛУЧАЕМ     |
|       | БЕЗ РЕШЕНИЯ |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℕ     | x + 3 = 1   | нет в ℕ | —                    | Счёт             |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℤ     | 2x = 3      | нет в ℤ | "всегда ≥ 0"         | Вычитание        |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℚ     | x² = 2      | нет в ℚ | Дискретность         | Деление          |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℝ     | x² = −1     | нет в ℝ | Счётность            | Непрерывность    |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℂ     | все есть.   | —       | Порядок (<, >) | Алг. замкнутость |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℍ     | (спец.)     | —       | Коммутативность      | 4D вращения      |
|       |             |         | ab ≠ ba              |                  |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| 𝕆     | (спец.)     | —       | Ассоциативность      | 8D, исключит.    |
|       |             |         | (ab)c ≠ a(bc)        | структуры        |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+

 Визуализация


   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ
   |   |   |   |   |
   |   |   |   |   +-- Плоскость (2D): a + bi
   |   |   |   +------ Прямая (1D): непрерывная
   |   |   +---------- Прямая (1D): с дырками (√2 нет)
   |   +-------------- Прямая (1D): целые точки
   +------------------ Луч: 0, 1, 2, 3, ...

   ℍ (кватернионы): 4D, базис {1, i, j, k},  i² = j² = k² = ijk = −1
   𝕆 (октонионы):   8D, последняя алгебра с делением над ℝ

-------------------------------------------------------------------------------
 Теорема Фробениуса (1877) и теорема Гурвица (1898)
-------------------------------------------------------------------------------
 Фробениус: Ассоциативные алгебры с делением над ℝ:  ℝ, ℂ, ℍ — и всё.
 Гурвиц:   Нормированные алгебры с делением над ℝ:  ℝ, ℂ, ℍ, 𝕆 — и всё.

 Размерности: 1, 2, 4, 8 — больше нет.

 С каждым расширением теряем фундаментальное свойство:
   ℝ → ℂ:  теряем порядок
   ℂ → ℍ:  теряем коммутативность
   ℍ → 𝕆:  теряем ассоциативность
   𝕆 → 𝕊:  теряем возможность делить (появляются делители нуля)

 Седенионы 𝕊 (16D) и дальше — математически существуют, но бесполезны
 для физики: в них ab = 0 возможно при a ≠ 0 и b ≠ 0.
 Поэтому цепочка ℝ → ℂ → ℍ → 𝕆 — это всё, что есть.

-------------------------------------------------------------------------------
 Основная теорема алгебры
-------------------------------------------------------------------------------

 Любой многочлен с комплексными коэффициентами имеет корень в ℂ.

 Это значит: ℂ — замкнуто относительно решения уравнений.
 Дальше расширять "ради уравнений" не нужно.

 Поэтому ℂ называют "алгебраически замкнутым полем".

-------------------------------------------------------------------------------
 Числа как точки в пространствах — топологические различия
-------------------------------------------------------------------------------

 Иерархия вложений:

   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ

   Каждое следующее множество "заполняет дыры" предыдущего:
   ℕ → ℤ : добавили отрицательные (решение a + x = 0)
   ℤ → ℚ : добавили дроби (решение ax = b)
   ℚ → ℝ : заполнили "дыры" (пределы последовательностей)
   ℝ → ℂ : добавили √(-1) (корни всех многочленов)


 Геометрическая картина:

   ℤ — решётка на прямой         ℂ — плоскость
   (отдельные точки)             (ℝ — горизонтальная ось)

   --●--●--●--●--●--●--           Im
     -2 -1  0  1  2  3             |
                                   |        ● 2+i
                               ----+----●--------► Re
                                   |     1
                                   ● -i
                                   |

   ℚ — "пыль" на прямой          ℝ — сплошная прямая
   (всюду плотно, но дырявое)    (без дыр, полное)

   -·-·-·-·-·-·-·-·-·-           ━━━━━━━━━━━━━━━━━━━
       √2 — дыра.                   √2 есть.

-------------------------------------------------------------------------------
 Топологические свойства
-------------------------------------------------------------------------------

 +---------+---------------------------------------------------------+
 | ПРОСТР. | ТОПОЛОГИЧЕСКИЕ СВОЙСТВА                                 |
 +---------+---------------------------------------------------------+
 | ℕ, ℤ    | Дискретная топология: каждая точка — открытое множество |
 |         | Не компактно, не связно (каждая точка — компонента)     |
 +---------+---------------------------------------------------------+
 | ℚ       | Всюду плотно в ℝ, но "дырявое"                          |
 |         | Не полно (последовательность → √2 не имеет предела в ℚ) |
 |         | Не связно (ℚ = (−∞,√2)∩ℚ ∪ (√2,+∞)∩ℚ — разбиение)       |
 +---------+---------------------------------------------------------+
 | ℝ       | Полное, связное, локально компактное                    |
 |         | Единственное полное упорядоченное поле.                 |
 +---------+---------------------------------------------------------+
 | ℂ       | Полное, связное, локально компактное                    |
 |         | Алгебраически замкнуто (любой многочлен имеет корень)   |
 |         | Нет порядка, совместимого с операциями.                 |
 +---------+---------------------------------------------------------+

 Ключевая мысль:
   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ  — это не просто "добавление чисел".
   На каждом шаге меняется топология и алгебраическая структура пространства.


===============================================================================
Словарь математического жаргона
===============================================================================

Математики используют слова, которые редко объясняются в учебниках.
Вот словарь самых частых "невидимых" терминов.

 Каноническое (canonical)


 = "естественное", "единственное", "не требующее произвольного выбора"

 Пример:
   • V** ≅ V — канонический изоморфизм (есть естественное соответствие)
   • V* ≅ V — не канонический (нужно выбрать базис, результат зависит от
              выбора)

 Когда говорят "канонический" — значит есть один правильный способ,
 и не нужно делать никаких дополнительных выборов.

-------------------------------------------------------------------------------
 Корректно определено / хорошо определено
-------------------------------------------------------------------------------

 = "результат не зависит от способа представления"

 Проблема: Иногда один и тот же объект можно записать по-разному.
           Функция корректно определена, если даёт одинаковый ответ
           для всех представлений.

 Пример 1 (некорректно):
   Пусть f: ℤ/3ℤ → ℤ, f([x]) = остаток x при делении на 2.
   Проверим: f([0]) = 0, f([3]) = 1.
   Но [0] = [3] в ℤ/3ℤ. Значит f([0]) должно = f([3]).
   Противоречие: 0 ≠ 1. Функция f не корректно определена.

 Пример 2 (корректно):
   Пусть g: ℤ/6ℤ → ℤ/2ℤ, g([x]) = [x mod 2].
   Проверим: если [x] = [y] в ℤ/6ℤ, то x ≡ y (mod 6).
   Значит x ≡ y (mod 2), и [x mod 2] = [y mod 2].
   Функция g корректно определена. ✓

 Вывод: При работе с классами эквивалентности нужно всегда проверять
         корректность определения.

-------------------------------------------------------------------------------
 Без потери общности
-------------------------------------------------------------------------------

 = "достаточно рассмотреть частный случай, остальные сводятся к нему"

 Пример 1:
   Теорема: |a + b| ≤ |a| + |b|
   Доказательство: "Б.п.о. пусть a ≥ 0."
   Почему можно? Если a < 0, заменим a на −a (модуль не изменится),
   и вернёмся к случаю a ≥ 0.

 Пример 2:
   Доказать что-то для двух точек A и B.
   "Б.п.о. пусть A левее B."
   Почему можно? Можем переименовать: A ↔ B.

 Когда можно использовать:
   • Есть симметрия в условии (a и b равноправны)
   • Можно привести к нужному случаю заменой переменных
   • Операция (переименование, смена знака) не меняет суть задачи

 Когда нельзя:
   • Условия для a и b разные
   • Преобразование меняет структуру задачи

-------------------------------------------------------------------------------
 Тривиальный / нетривиальный
-------------------------------------------------------------------------------

 Тривиальный = "очевидный", "пустой", "простейший возможный"
 Нетривиальный = "содержательный", "не сводящийся к очевидному"

 Примеры:
   • Тривиальное решение Ax = 0: x = 0
   • Тривиальная подгруппа: {e} или вся G
   • Нетривиальный корень: x ≠ 0

 Ирония: Что "тривиально" для профессора, может быть сложным для студента.
         "Тривиально следует." часто означает "я не хочу это объяснять".

-------------------------------------------------------------------------------
 Почему символ ∘ для композиции
-------------------------------------------------------------------------------

 Запись (f ∘ g)(x) = f(g(x)) означает: "применить сначала g, потом f".

 Почему справа налево:
   Из записи f(g(x)) — сначала вычисляем g(x), потом f от результата.
   Внутренняя функция применяется первой.

 Происхождение символа:
   ∘ — маленький кружок, "связующее звено" между функциями.
   Введён в XIX веке для краткости.

 Альтернативная нотация (редко):
   f ; g = g ∘ f — "сначала f, потом g" (читается слева направо)
   Используется в некоторых языках программирования и теории категорий.

 Запомнить: f ∘ g читать как "f после g" или "f круг g".

-------------------------------------------------------------------------------
 Единственный с точностью до
-------------------------------------------------------------------------------

 = "единственный, если не различать объекты определённого типа"

 Примеры:
   • "Базис единственен с точностью до порядка" — можно переставить векторы
   • "Решение единственно с точностью до знака" — есть ровно два: x и −x
   • "Группа единственна с точностью до изоморфизма" — все такие группы
     изоморфны друг другу

 Смысл: Есть несколько объектов, но они "одинаковы" в определённом смысле.


-------------------------------------------------------------------------------
Типичные ошибки в рассуждениях
-------------------------------------------------------------------------------

 Ошибка 1: Путать импликацию A⇒B с эквивалентностью A⟺B


   A ⇒ B  не означает  B ⇒ A

   Верно:  "Если n делится на 4, то n делится на 2"
   Неверно: "Если n делится на 2, то n делится на 4"
            Контрпример: n = 6 делится на 2, но 6 не делится на 4.

   Правильные отношения:
     A ⇒ B   (прямая импликация)
     B ⇒ A   (обратная импликация) — другое утверждение
     ¬B ⇒ ¬A (контрапозиция) — эквивалентно прямой


 Ошибка 2: Круговое доказательство


   Неправильно: "Докажем A. Предположим A. Тогда. Значит A. ∎"

   Это не доказательство. Вы использовали A для доказательства A.

   Более тонкая версия:
   "Из A следует B. Из B следует C. Из C следует A."
   Это доказывает A ⟺ B ⟺ C, но не доказывает, что A истинно.


 Ошибка 3: Путать порядок кванторов ∀x∃y и ∃y∀x


   ∀x ∃y: P(x,y)  — для каждого x существует свой y (y зависит от x)
   ∃y ∀x: P(x,y)  — существует один y, работающий для всех x

   Пример: Непрерывность vs равномерная непрерывность

   ∀ε>0 ∀x ∃δ>0: ...  — δ может зависеть от x и ε (просто непрерывность)
   ∀ε>0 ∃δ>0 ∀x: ...  — δ одна для всех x (равномерная непрерывность)

   Это разные свойства. f(x) = 1/x непрерывна на (0,1), но не равномерно.


 Ошибка 4: Деление на выражение, которое может быть нулём


   Неправильно: "Из ax = ay делим на a, получаем x = y"

   А если a = 0? Тогда 0 = 0 верно для любых x, y.

   Правильно: "Если a ≠ 0, то из ax = ay следует x = y."
              "Если a = 0, то равенство выполнено для любых x, y."


 Ошибка 5: Один пример — не доказательство


   Неправильно: "41 простое, 41+2=43 тоже простое.
                 Значит, если p простое, то p+2 тоже простое."

   Контрпример: 7 простое, но 7+2 = 9 = 3² не простое.

   Асимметрия:
     • Для доказательства ∀x P(x) нужно проверить все x
     • Для опровержения ∀x P(x) достаточно одного x с ¬P(x)


 Ошибка 6: Отождествлять необходимое и достаточное


   A — достаточное условие для B:  A ⇒ B  (если A, то точно B)
   A — необходимое условие для B:  B ⇒ A  (без A не бывает B)

   Пример: "Быть квадратом" для "делиться на 4"

   Достаточное? n = k² ⇒ n делится на 4?  Нет. (9 = 3², но 4 ∤ 9)
   Необходимое? n делится на 4 ⇒ n квадрат? Нет. (8 делится на 4, 8 ≠ k²)


-------------------------------------------------------------------------------
Зачем символы вместо слов
-------------------------------------------------------------------------------

 Вопрос: Почему математики пишут ∀ε>0 ∃δ>0 вместо слов?


 Причина 1: Компактность

   Словами:
   "Для любого положительного числа эпсилон найдётся такое положительное
    число дельта, что для всех x, если модуль разности x и a меньше дельта,
    то модуль разности f от x и L меньше эпсилон."

   Символами:
   ∀ε>0 ∃δ>0 ∀x: |x−a|<δ ⇒ |f(x)−L|<ε

   Одна строка вместо четырёх.


 Причина 2: Точность

   Порядок кванторов виден сразу:

   ∀ε ∃δ  — для каждого ε свой δ (обычная непрерывность)
   ∃δ ∀ε  — один δ для всех ε (другое свойство)

   Словами это легко перепутать.


 Причина 3: Манипуляция

   Логические правила применяются механически:

   ¬(∀x P(x)) = ∃x ¬P(x)   — просто переворачиваем квантор и отрицаем P
   ¬(∃x P(x)) = ∀x ¬P(x)

   Словами такие преобразования легко запутать.


 Совет для чтения:
   При первом чтении переводите символы в слова вслух.
   "Для всех эпсилон больше нуля существует дельта больше нуля."

 Совет для написания:
   Используйте символы для точности структуры.
   Добавляйте словесные пояснения для интуиции.


-------------------------------------------------------------------------------
Почему термины так называются (этимология)
-------------------------------------------------------------------------------

Понимание происхождения терминов помогает запомнить их смысл.

-------------------------------------------------------------------------------
 Алгебраические термины
-------------------------------------------------------------------------------

 Ядро (kernel, от нем. Kern = зерно, сердцевина):
   Историческая метафора: "сердцевина" того, что теряется при отображении.
   Ядро — это то, что "схлопывается" в нейтральный элемент.
   ker(φ) = {x : φ(x) = 0} — центральная часть "потерь".

 Образ (image, от лат. imago = отражение):
   Буквально: "картинка", "отражение" исходного множества.
   Im(f) = f(A) — куда "отображается" множество A.

 Гомоморфизм (ὁμός = одинаковый, μορφή = форма):
   "Сохраняющий форму" — переносит операции без изменения структуры.
   φ(a · b) = φ(a) · φ(b) — операция "выглядит одинаково" до и после.

 Изоморфизм (ἴσος = равный):
   "Равноформенный" — структуры полностью идентичны алгебраически.
   Биективный гомоморфизм: ничего не теряется, ничего не склеивается.

 Группа (фр. groupe, нем. Gruppe):
   Введено Галуа (1830-е) для "группы подстановок корней уравнения".
   Исходно: набор симметрий, связанных с алгебраическим уравнением.

 Кольцо (нем. Ring):
   Изначально: циклические структуры типа ℤ/nℤ, которые "закольцовываются".
   Дедекинд (1871) использовал для "колец целых чисел" в полях.

 Поле (нем. Körper = тело, англ. field):
   Немецкий термин "тело" = пространство для полноценной арифметики.
   Английский "field" = область/поле деятельности для всех операций.
   Поле — где можно делить на всё ненулевое.

 Идеал (от Куммера, 1840-е):
   Изначально "идеальные числа" — фиктивные элементы для восстановления
   единственности разложения на простые множители.
   Дедекинд формализовал как подмножество кольца.

-------------------------------------------------------------------------------
 Геометрические и топологические термины
-------------------------------------------------------------------------------

 Топология (τόπος = место, λόγος = учение):
   "Наука о местах/расположении" — изучает, что рядом с чем.
   Введено Листингом (1847): "Топология — геометрия положения".

 Многообразие (manifold, от нем. Mannigfaltigkeit):
   "Многообразное" — может выглядеть по-разному в разных местах,
   но локально всегда как ℝⁿ. Риман (1854).

 Гомотопия (ὁμός = одинаковый, τόπος = место):
   Два пути "одноместны" = можно непрерывно деформировать один в другой.

 Симплекс (лат. simplex = простой):
   Простейший многогранник в данной размерности:
   точка → отрезок → треугольник → тетраэдр → ...

 Компактный (лат. compactus = плотно сжатый):
   Множество "плотно упаковано" — из любого покрытия можно выбрать
   конечное подпокрытие. Нет "бесконечных дыр" или "убегания в бесконечность"

 Связный (connected):
   "Цельный" — нельзя разбить на два непересекающихся открытых множества.
   Можно дойти из любой точки в любую, не выходя из множества.

-------------------------------------------------------------------------------
 Аналитические термины
-------------------------------------------------------------------------------

 Непрерывный (continuous, от лат. continuus = связный):
   "Без разрывов" — малые изменения аргумента дают малые изменения значения.

 Дифференцируемый (от лат. differentia = разность):
   Можно вычислить "разностное отношение" и перейти к пределу.
   Функция "различима" — можно увидеть, как она меняется.

 Интеграл (от лат. integer = целый):
   "Восстановление целого" из частей (суммирование бесконечно малых).
   Лейбниц использовал ∫ как стилизованную букву S (summa).

 Сходимость (convergence, от лат. convergere = склоняться к):
   Члены последовательности "склоняются к" одной точке.

 Предел (limit, от лат. limes = граница):
   "Граница", к которой стремится последовательность или функция.


===============================================================================
Категорный взгляд — язык для всего, что далее
===============================================================================

Прежде чем перейти к конкретным структурам (группы, пространства, многообразия),
введём язык, на котором все они описываются единообразно.

 Главная идея:
 Математические объекты важны не сами по себе, а через отношения между ними.

 Категория = Объекты + Стрелки (морфизмы) между ними

      A --f--► B --g--► C

 Объекты: то, что мы изучаем (множества, группы, пространства)
 Стрелки: как объекты связаны (функции, гомоморфизмы, непрерывные отобр.)

 Ключевое свойство: стрелки можно композировать (g∘f: A → C)


 Примеры категорий (которые встретятся далее)
 +-----------+--------------+-------------------------+
 | КАТЕГОРИЯ | ОБЪЕКТЫ      | СТРЕЛКИ                 |
 +-----------+--------------+-------------------------+
 | Set       | Множества    | Функции                 |
 | Grp       | Группы       | Гомоморфизмы            |
 | Vect      | Вект. пр-ва  | Линейные отображения    |
 | Top       | Топ. пр-ва   | Непрерывные отображения |
 | Man       | Многообразия | Гладкие отображения     |
 +-----------+--------------+-------------------------+

 Во всех этих случаях паттерн один:
   • Есть объекты с какой-то структурой
   • Есть отображения, сохраняющие эту структуру
   • Отображения можно композировать


===============================================================================
Как математик думает — эвристики и методы мышления
===============================================================================

Мы определили основные объекты: множества, числа, отношения, категории.
Прежде чем строить на них пространства (Часть II) — несколько слов о том,
как устроено само математическое мышление. Что такое инвариант?
Когда обобщать? Когда искать контрпример? Эти эвристики пронизывают
весь атлас.



 Когда искать инвариант


 Инвариант — это величина, которая не меняется при преобразованиях.
 Если мы вращаем, деформируем, пересчитываем в другие координаты —
 а некоторое число или свойство остаётся тем же — это инвариант.
 Инварианты отделяют существенное от несущественного.

 Если объекты меняются, но что-то сохраняется — ищи инвариант.

 Примеры:
   • Вращения меняют координаты, но сохраняют длину: ‖v‖ = inv
   • Деформации меняют форму, но сохраняют число дырок: π₁ = inv
   • Время меняет систему, но сохраняет энергию: H = inv (если ∂L/∂t = 0)

 Эвристика: "Что не изменилось?" — первый вопрос математика.


 Когда обобщать, когда конкретизировать


 Обобщай, если:
   • Доказательство работает для более широкого класса
   • Конкретные детали не используются
   • Хочешь понять суть, отбросив "шум" частностей

 Конкретизируй, если:
   • Общая теорема не даёт явного ответа
   • Нужен вычислительный результат
   • Частный случай имеет дополнительную структуру

 Пример: Теорема о неподвижной точке (общая) → метод Ньютона (конкретный).
 Общая говорит "существует", конкретная говорит "как найти".


 Что делать, когда доказательство не идёт


 1. Проверь частные случаи
    Верно ли утверждение для n=1,2,3? Для простейших примеров?
    Если нет — ищи контрпример, а не доказательство.

 2. Ослабь утверждение
    Может быть, верно при дополнительных условиях?
    Может быть, верна более слабая оценка?

 3. Усиль утверждение
    Парадоксально, но иногда более сильное утверждение легче доказать.
    Индукция часто требует усиления гипотезы.

 4. Переформулируй
    Та же задача на другом языке (алгебра ↔ геометрия ↔ анализ).
    Иногда другой взгляд делает решение очевидным.

 5. Изучи аналогичные теоремы
    Как доказывали похожие результаты? Какие идеи использовали?


 Как выбирать между формализациями


 Одна задача — много языков (см. введение). Как выбрать?

 Критерии:
   • Какие операции нужны? (сложение → линалг, близость → топология)
   • Какой ответ нужен? (существование → абстрактно, число → конкретно)
   • Что известно? (симметрия → группы, гладкость → анализ)

 Эвристика: Выбирай язык, где задача становится стандартной.

 Пример: Уравнение теплопроводности
   • Хочу понять качественное поведение → полугруппы (e^{At})
   • Хочу посчитать конкретное решение → Фурье или численно
   • Хочу доказать существование → функанализ


 Принцип экономии структуры


 Не вводи больше структуры, чем нужно для решения.

 Плохо: "Пусть V — гильбертово пространство." (если нужна только норма)
 Хорошо: "Пусть V — нормированное пространство."

 Почему это важно:
   • Доказательство работает для более широкого класса
   • Легче понять, что именно используется
   • Результат легче применить в других контекстах

 Исключение: Если дополнительная структура делает доказательство проще,
 иногда стоит её использовать, а потом обобщить результат.


 Интуиция vs строгость


 Математик работает в два этапа:

   Этап 1 (интуиция): "Почему это должно быть правдой?"
   Рисунки, аналогии, физические соображения, примеры.
   Цель: понять, не доказать.

   Этап 2 (строгость): "Как это доказать?"
   Формальные определения, логические шаги, проверка всех случаев.
   Цель: убедить (себя и других).

 Ошибка новичка: пропускать этап 1.
   Без интуиции доказательство — это слепой перебор.

 Ошибка физика: останавливаться на этапе 1.
   Интуиция иногда обманывает (пример: парадоксы анализа XIX века).



▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                              ЧАСТЬ II: ПРОСТРАНСТВА
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

          Введение: Разные взгляды на одно пространство

===============================================================================
Три задачи на пространствах
===============================================================================

 Что можно делать с математическими объектами?


 Любая работа с пространством (и вообще с математическим объектом)
 Сводится к одной из трёх задач:

   Классификация — что это за объект? что возможно в принципе?
   Вычисления    — найти конкретное значение внутри известного
   Построение    — создать новый объект из имеющихся

 Эти три задачи исчерпывают всё, что можно делать в математике.

-------------------------------------------------------------------------------
 Классификация — нормативные границы
-------------------------------------------------------------------------------

 Классификация отвечает: Что это? Что возможно в принципе?

 Результат: "это X, а не Y", "это возможно / невозможно", "таких ровно N"

 Примеры:
   • Замкнутых поверхностей ровно столько: сферы с ручками + неориентир.
   • Твёрдое тело имеет 6 степеней свободы (не 5, не 7)
   • Уравнение 5-й степени не решается в радикалах (группа S₅ неразрешима)
   • Поле F = grad φ существует ⟺ rot F = 0 и область односвязна
   • Сфера и тор не гомеоморфны (разные π₁, разные χ)

 Классификация устанавливает границы — что можно искать, а что бессмысленно.

 Инструменты: топологические инварианты, группы симметрий, теоремы
 существования/единственности.

-------------------------------------------------------------------------------
 Вычисления — найти конкретное
-------------------------------------------------------------------------------

 Вычисления отвечают: Где именно? Сколько? Какое значение?

 Результат: число, координаты, формула, конкретный объект

 Примеры:
   • Найти корни уравнения x³ − 2x + 1 = 0
   • Вычислить интеграл ∫₀^∞ e^{−x²} dx = √π/2
   • Найти собственные значения матрицы
   • Определить кратчайший путь на поверхности (геодезическую)
   • Найти минимум функции на компакте

 Вычисления работают внутри границ, установленных классификацией.
 Если классификация говорит "не существует" — вычислять нечего.

 Инструменты: алгоритмы, методы оптимизации, численные методы,
 аналитические техники.

-------------------------------------------------------------------------------
 Построение — создать новое
-------------------------------------------------------------------------------

 Построение отвечает: Как получить новый объект из имеющихся?

 Результат: новый объект, которого раньше не было

 Примеры:
   • a × b — новый вектор из двух данных
   • V ⊗ W — новое пространство из двух данных
   • G/H — факторгруппа (новая группа из группы и подгруппы)
   • ℚ → ℝ — пополнение (новое пространство из старого)
   • Произведение M × N — новое многообразие
   • Касательное расслоение TM — новое пространство над M
   • Дополнительные построения в геометрии (провести прямую, опустить ⊥)

 Отличие от вычислений: вычисление находит существующее (корень уже есть,
 мы его ищем). Построение создаёт — до операции a × b этого вектора не было.

 Инструменты: операции (×, ⊗, ∧, /, ×), конструкции (пополнение,
 накрытие, расширение), универсальные свойства.

-------------------------------------------------------------------------------
 Связь трёх задач
-------------------------------------------------------------------------------

                      Классификация
                      "что возможно?"
                           |
              +------------+------------+
              ↓                         ↓
        Построение вычисления
      "создать новое"           "найти внутри"
              |                         |
              +----------+--------------+
                         ↓
                   Новые объекты
                         |
                         ↓
              Классификация новых.

 Классификация устанавливает границы →
   Построение создаёт объекты внутри границ →
     Вычисления находят конкретные значения →
       Результаты могут требовать новой классификации


 Классификация (что возможно, инварианты, типы):
   Группы — классификация симметрий и движений
   Топология — классификация пространств по форме
   Теория чисел — классификация чисел

 Вычисления (найти значение, решить уравнение):
   Линейная алгебра — системы уравнений, собственные значения
   Анализ — производные, интегралы, ряды
   Функциональный анализ — уравнения в бесконечной размерности

 Построение (создать новый объект):
   Произведения векторов — ⟨,⟩, ×, ∧, ⊗
   Двойственность — V → V*
   Тензоры — мультилинейные конструкции
   Многообразия — склейка из карт
   Дифф. формы — формы из векторов

 Большинство разделов включают все три задачи в разных пропорциях.


-------------------------------------------------------------------------------
Таблица пространств — центральная таблица
-------------------------------------------------------------------------------

 Пространство — центральный объект математики

 Вся математика изучает пространства и структуры на них:
   • Топология: форма пространства (дырки, связность)
   • Алгебра: симметрии пространства (группы)
   • Анализ: функции на пространстве
   • Геометрия: измерения на пространстве (метрика, кривизна)

-------------------------------------------------------------------------------
 Иерархия пространств — что добавляется на каждом уровне
-------------------------------------------------------------------------------

   Множество (просто набор точек)
       | + топология (понятие "близости", открытые множества)
       ↓
   Топологическое пространство
       | + локальная евклидовость (похоже на ℝⁿ в малом)
       ↓
   Многообразие
       | + метрика (способ измерять расстояния)
       ↓
   Риманово многообразие
       | + физические уравнения
       ↓
   Пространство-время (ото)

   Параллельная ветвь:

   Множество
       | + линейная структура (сложение, умножение на число)
       ↓
   Векторное пространство
       | + скалярное произведение
       ↓
   Евклидово пространство ℝⁿ
       | + бесконечная размерность
       ↓
   Гильбертово пространство (квантовая механика)

===============================================================================
Главные пространства — каталог
===============================================================================

 Обозначения в таблице:

   dim = размерность (сколько координат нужно для описания точки)
   π₁  = фундаментальная группа (какие петли нельзя стянуть в точку?)
         означает "все петли стягиваются", ℤ — "есть одна незамкнутая"
   H₁  = первая группа гомологий (похоже на π₁, но абелева версия)
   χ   = эйлерова характеристика = V − E + F (вершины − рёбра + грани)
         Инвариант формы: сфера χ=2, тор χ=0, проект. плоскость χ=1

   Инварианты — таблица

+-------------+-----+-------+-------+-----+-------------------------------------+
| ПРОСТРАНСТВО|dim  | π₁    | H₁    |  χ  | ЧТО ЭТО / ГДЕ ВСТРЕЧАЕТСЯ           |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Точка {*}   |  0  |   0   |   0   |  1  | Тривиальное; нульмерный "мир"       |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Прямая ℝ    |  1  |   0   |   0   |  —  | Некомпактна; время, температура     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Окружность  |  1  |   ℤ   |   ℤ   |  0  | S¹ = {|z|=1}; углы, фазы, периоды    |
| S¹          |     |       |       |     | Группа U(1).                        |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Плоскость   |  2  |   0   |   0   |  —  | Некомпактна; обычная геометрия      |
| ℝ²          |     |       |       |     |                                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Сфера S²    |  2  |   0   |   0   |  2  | Поверхность шара; Земля, небо       |
|             |     |       |       |     | Все петли стягиваются.              |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Тор T²      |  2  |  ℤ²   |  ℤ²   |  0  | Бублик = S¹×S¹; два угла             |
|             |     |       |       |     | Периодические граничные условия     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Проективная |  2  |  ℤ/2  |  ℤ/2  |  1   | ℝP² = "направления прямых"          |
| плоскость   |     |       |       |     | Неориентируема.                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Бутылка     |  2  | ℤ⋊ℤ   |ℤ⊕ℤ/2   |  0  | Неориентируема; 4D нужно            |
| Клейна K    |     |       |       |     |                                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| 3-сфера S³  |  3  |   0   |   0   |  0  | ≅ SU(2). Пространство вращений      |
|             |     |       |       |     | (с точностью до ±)                  |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| SO(3)       |  3  |  ℤ/2  |  ℤ/2  |  0  | Все вращения в ℝ³                   |
|             |     |       |       |     | ≅ ℝP³ (не S³.)                      |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| ℝ⁴ (простр- |  4  |   0   |   0   |  —  | Пространство-время (СТО)            |
| время СТО)  |     |       |       |     | Плоское, метрика Минковского        |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+

-------------------------------------------------------------------------------
 Классификация замкнутых поверхностей (dim = 2)
-------------------------------------------------------------------------------

 Теорема: Любая замкнутая поверхность — это:

   Ориентируемая:        Сфера с g ручками (род g)

     g = 0     g = 1     g = 2
       ○         ◎        ◎◎      χ = 2 − 2g
     сфера     тор      "кренделёк"

   Неориентируемая:      Сфера с k "крестышками" (Мёбиус вклеен)

     k = 1     k = 2
      ℝP²       K        χ = 2 − k
   проект.   Клейна

 Это полная классификация. Других замкнутых поверхностей нет.

-------------------------------------------------------------------------------
 Связь пространств с группами
-------------------------------------------------------------------------------

 Многие важные пространства одновременно являются группами:

   S¹ ≅ U(1) ≅ SO(2)    — окружность = группа вращений плоскости
   S³ ≅ SU(2)           — 3-сфера = группа (двойное накрытие SO(3))
   SO(3) ≅ ℝP³          — вращения в 3D = проективное пространство
   GL(n), SL(n), O(n)   — группы матриц = многообразия

 Это группы Ли — группы, которые одновременно многообразия.

 Фундаментальная группа π₁ тоже связывает:
   π₁(S¹) = ℤ           — целые числа как группа
   π₁(T²) = ℤ²          — решётка
   π₁(∨ₙS¹) = Fₙ        — свободная группа


===============================================================================
Три отношения к пространству
===============================================================================

 Задача: определить предмет каждой области математики

+------------------+-------------+---------------------------+
| ОБЛАСТЬ          | ГЛАГОЛ      | ВОПРОС                    |
+------------------+-------------+---------------------------+
| Дифференциальная | Измеряет    | Как устроено изнутри?     |
| геометрия        |             | (кривизна, метрика, углы) |
+------------------+-------------+---------------------------+
| Алгебраическая   | Различает   | Чем отличается от других? |
| топология        |             | (инварианты: π₁, Hₙ)      |
+------------------+-------------+---------------------------+
| Теория групп     | Преобразует | Что можно с ним делать?   |
|                  |             | (симметрии, действия)     |
+------------------+-------------+---------------------------+

Слово "алгебраический":

+--------------------------+-------------------------------------------------+
| АЛГЕБРАИЧЕСКАЯ ТОПОЛОГИЯ | Пространство → Группа.  Алгебра как инструмент. |
| АЛГЕБРАИЧЕСКАЯ ГЕОМЕТРИЯ | Уравнения → Пространство. Алгебра как источник. |
+--------------------------+-------------------------------------------------+


-------------------------------------------------------------------------------
Группа — симметрии пространства
-------------------------------------------------------------------------------

Если множество — пыль, а топология — ткань, то группа — это подвижность.
Группа отвечает на вопрос: как можно двигаться в пространстве, не ломая его?
Какие преобразования допустимы?

В терминах "объект—наблюдатель" группа — это ключевое понятие.

-------------------------------------------------------------------------------
Группа — это каталог движений наблюдателя, не меняющих объект
-------------------------------------------------------------------------------

Если наблюдатель повернулся — объект выглядит иначе, но сам объект не изменился.
Группа SO(3) — это все возможные повороты. Каждый элемент группы — конкретный
поворот. Композиция — выполнить один поворот, потом другой.

Почему это фундаментально: физические законы не должны зависеть от того,
как стоит наблюдатель. "Ковариантность" в физике — это требование, чтобы
уравнения выглядели одинаково для всех наблюдателей, связанных группой.

Инвариант группы — то, что не меняется ни при каких движениях из группы.
Например, расстояние — инвариант группы вращений. Два наблюдателя, повёрнутые
друг относительно друга, измерят одинаковое расстояние.

-------------------------------------------------------------------------------
Группа как взгляд на пространство
-------------------------------------------------------------------------------

 Группа — это множество преобразований пространства, сохраняющих его
 структуру. Разные группы "видят" в одном пространстве разные вещи:

   • SO(3) видит в ℝ³ вращения (сохраняет расстояния и ориентацию)
   • GL(n) видит линейность (сохраняет прямые и начало координат)
   • Симметрии кристалла видят дискретную решётку

-------------------------------------------------------------------------------
 Откуда взялись группы — история
-------------------------------------------------------------------------------

 Уравнения 1, 2, 3, 4 степени — решаются формулами (Кардано, Феррари).
 Уравнение 5 степени: x⁵ + ax⁴ + bx³ + cx² + dx + e = 0

   Почти 300 лет искали формулу. Галуа (в 20 лет) доказал: её не существует.

 Как? Он связал уравнение с группой перестановок его корней:
   Если эта группа "разрешима" → формула существует.
   Группа перестановок 5 элементов — не разрешима → формулы нет.

 Так родилась теория групп — из вопроса о решении уравнений.

-------------------------------------------------------------------------------
 Физический взгляд: степени свободы твёрдого тела
-------------------------------------------------------------------------------

 Возьмём любой предмет — книгу, камень, молекулу.
 Какие движения с ним возможны, если нельзя деформировать?

 Сдвиги: можно перенести в любую точку пространства.
         Три направления: вперёд-назад, влево-вправо, вверх-вниз → 3 числа.

 Повороты: можно повернуть вокруг любой оси.
           Ось (2 параметра) + угол (1 параметр) → 3 числа.

 Итого: 6 параметров. Положение твёрдого тела описывается 6 числами.
        Не 5, не 7 — именно 6. Это факт о структуре пространства ℝ³.

 Множество всех таких движений называется SE(3) — специальная евклидова
 группа.

-------------------------------------------------------------------------------
 Почему это группа — свойства движений
-------------------------------------------------------------------------------

 Движения обладают определёнными свойствами:

 1. Два движения подряд — тоже движение
    Сначала сдвинуть, потом повернуть — получится какое-то движение.
    Не выходим за пределы SE(3).

 2. Порядок группировки не важен
    (A потом B) потом C = A потом (B потом C)
    Это свойство композиции любых отображений.

 3. Есть "ничего не делать"
    Тождественное движение — оставить всё на месте.

 4. Любое движение можно отменить
    Сдвинули на 3 метра вправо → сдвигаем на 3 метра влево.
    Повернули на 30° → поворачиваем на −30°.

 Эти четыре свойства — аксиомы группы.
 Они не придуманы, а следуют из природы понятия "движение".

-------------------------------------------------------------------------------
 Разные ограничения — разные группы
-------------------------------------------------------------------------------

 Какие движения "разрешены" зависит от того, что нужно сохранить:

 +-------------------+------------+---------------------------------+
 | ЧТО СОХРАНЯЕМ     | ГРУППА     | ГДЕ ВСТРЕЧАЕТСЯ                 |
 +-------------------+------------+---------------------------------+
 | Расстояния и углы | E(3)       | Твёрдое тело (с отражениями)    |
 | + ориентацию      | SE(3)      | Твёрдое тело (без отражений)    |
 | Только углы       | Конформная | Картография, комплексный анализ |
 | Параллельность    | Aff(3)     | Тени при солнечном свете        |
 | Только прямизну   | PGL(3)     | Перспектива в живописи          |
 | Объём             | SL(3)      | Несжимаемая жидкость            |
 | Линейность        | GL(3)      | Любая линейная деформация       |
 +-------------------+------------+---------------------------------+

 Меньше ограничений → больше группа:
   Линейные:  SO(3) ⊂ O(3) ⊂ SL(3) ⊂ GL(3)
   Аффинные:  SE(3) ⊂ E(3) ⊂ Aff(3)
   Связь: GL(3) ⊂ Aff(3), но E(3) ⊄ GL(3) (изометрии включают сдвиги)

 Это классификация: группа описывает, какие преобразования возможны.

-------------------------------------------------------------------------------
 Только повороты — группа SO(3)
-------------------------------------------------------------------------------

 Если объект закреплён в одной точке (волчок, гироскоп, спутник),
 остаются только повороты. Это группа SO(3).

   SO(3) = { повороты ℝ³ вокруг начала координат }
         = { ортогональные матрицы 3×3 с det = +1 }

 Размерность: 3 (три угла Эйлера, или ось + угол).

 Важный факт: SO(3) — неабелева группа.

   Повернуть по X, потом по Y  ≠  повернуть по Y, потом по X

   Можете проверить с книгой:
   1) положите книгу, поверните на 90° вокруг вертикали, потом
      на 90° вокруг горизонтальной оси "от себя"
   2) сделайте в обратном порядке
   Результаты разные.

 Это не абстракция — управление спутником должно это учитывать.

-------------------------------------------------------------------------------
 Дискретные симметрии — конечные группы
-------------------------------------------------------------------------------

 Не все объекты допускают любые повороты.
 Кристалл соли (куб) выглядит одинаково только при определённых поворотах.

 Симметрии квадрата — группа D₄:

    1---2     Исходный         4---1    Поворот на 90°
    |   |     квадрат          |   |    по часовой стрелке
    |   |                      |   |
    4---3                      3---2

 Возможные преобразования:
   • 4 поворота: на 0°, 90°, 180°, 270°
   • 4 отражения: относительно горизонтали, вертикали, двух диагоналей

 Всего 8 элементов. Не 7, не 9 — ровно 8.
 Это полный ответ на вопрос "какие симметрии у квадрата".

 Симметрии правильных многогранников
 +----------------------+--------+----------------------+
 | МНОГОГРАННИК         | ГРУППА | ЧИСЛО СИММЕТРИЙ      |
 +----------------------+--------+----------------------+
 | Тетраэдр             | Td     | 24                   |
 | Куб / Октаэдр        | Oh     | 48 (они двойственны) |
 | Додекаэдр / Икосаэдр | Ih     | 120                  |
 +----------------------+--------+----------------------+

 Куб и октаэдр имеют одинаковую группу симметрий — они "геометрически
 эквивалентны" в смысле симметрий (двойственные многогранники).


===============================================================================
Группа — мотивация и примеры
===============================================================================

 Визуализация: симметрии квадрата


    1---2     Исходный         2---3    Поворот 90°      3---4   Поворот 180°
    |   |     квадрат          |   |    против часовой   |   |
    |   |                      |   |                     |   |
    4---3                      1---4                     2---1

    2---1     Отражение        4---3    Отражение        Всего 8 симметрий:
    |   |     (верт. ось)      |   |    (гориз. ось)     • 4 поворота
    |   |                      |   |                     • 4 отражения
    3---4                      1---2

   Любые две симметрии можно скомбинировать → получится симметрия.
   У каждой симметрии есть обратная (вернуть назад).
   Есть тождественная симметрия (ничего не делать).

   Это и есть группа D₄ — группа диэдра (симметрий квадрата).

-------------------------------------------------------------------------------
 Группа как множество преобразований
-------------------------------------------------------------------------------

 Группа формализует понятие "множество обратимых преобразований".

 +------------------+-------------------------------------------------+
 | АКСИОМА          | СМЫСЛ В ТЕРМИНАХ ПРЕОБРАЗОВАНИЙ                 |
 +------------------+-------------------------------------------------+
 | Замкнутость      | Композиция двух преобразований — преобразование |
 | Ассоциативность  | (f∘g)∘h = f∘(g∘h)                                 |
 | Нейтральный эл.  | Тождественное преобразование id                 |
 | Обратный элемент | Каждое преобразование обратимо                  |
 +------------------+-------------------------------------------------+

 Определение: Группа симметрий объекта X — множество всех биекций X → X,
              сохраняющих структуру X.


 Необходимость аксиом
+-----------------+---------------------------------------------------+
| АКСИОМА         | ПОЧЕМУ НЕОБХОДИМА                                 |
+-----------------+---------------------------------------------------+
| Композиция      | Последовательное применение симметрий — симметрия |
| Нейтральный     | Тождественное отображение сохраняет структуру     |
| Обратный        | Обратное к симметрии — симметрия                  |
| Ассоциативность | Следует из ассоциативности композиции функций     |
+-----------------+---------------------------------------------------+

===============================================================================
Формальное определение
===============================================================================

-------------------------------------------------------------------------------
 Определение группы
-------------------------------------------------------------------------------

 Группа (G, ·) — множество G с бинарной операцией · : G × G → G,
 удовлетворяющей аксиомам:

 Примечание о нотации: Запись (G, ·) — это кортеж (упорядоченная пара),
 где первый элемент — множество-носитель, второй — операция (сигнатура).
 Это не то же самое, что пара {{G}, {G, ·}} из теории множеств.
 Здесь скобки означают "структура = носитель + операции".

   +-----------------+-------------------+-----------------------+
   | АКСИОМА         | ФОРМУЛА           | СМЫСЛ                 |
   +-----------------+-------------------+-----------------------+
   |                 |                   |                       |
   | G1. Замкнутость | ∀a,b ∈ G: a·b ∈ G | Результат — элемент G |
   |                 |                   |                       |
   | G2. Ассоциатив- | ∀a,b,c ∈ G:       | Скобки не важны       |
   | ность           | (a·b)·c = a·(b·c) |                       |
   |                 |                   |                       |
   | G3. Нейтральный | ∃e ∈ G: ∀a ∈ G:   | "Ничего не делать"    |
   | элемент         | e·a = a·e = a     |                       |
   |                 |                   |                       |
   | G4. Обратный    | ∀a ∈ G ∃a⁻¹ ∈ G:  | Всё можно отменить    |
   | элемент         | a·a⁻¹ = a⁻¹·a = e |                       |
   |                 |                   |                       |
   +-----------------+-------------------+-----------------------+

 Примечания:
   • Нейтральный элемент единственный
   • Обратный элемент для каждого a единственный
   • (a⁻¹)⁻¹ = a
   • (a·b)⁻¹ = b⁻¹·a⁻¹  (порядок меняется)

-------------------------------------------------------------------------------
 Абелевы vs неабелевы группы
-------------------------------------------------------------------------------

 Абелева группа: ∀a,b: a·b = b·a (коммутативность)

+----------------------------+-------------------------------------------+
| АБЕЛЕВЫ (порядок не важен) | НЕАБЕЛЕВЫ (порядок важен)                 |
+----------------------------+-------------------------------------------+
|                            |                                           |
| (ℤ, +): 2+3 = 3+2          | D₄: поворот∘отражение ≠ отражение∘поворот |
| (ℝ, +): π+e = e+π          | Sₙ (n≥3): перестановки                    |
| (ℝ*, ×): 2×3 = 3×2         | GL(n): матрицы AB ≠ BA                    |
| (ℤ/n, +): циклические      | SO(3): вращения в 3D                      |
|                            |                                           |
+----------------------------+-------------------------------------------+

===============================================================================
Примеры групп — подробно
===============================================================================

 Пример 1: Целые числа (ℤ, +)


 Множество: ℤ = {..., -2, -1, 0, 1, 2, 3, ...}
 Операция:  сложение +

 Проверка аксиом:

   G1. Замкнутость:   a + b ∈ ℤ для любых a, b ∈ ℤ               ✓
                      (сумма целых — целое)

   G2. Ассоциативность: (a+b)+c = a+(b+c)                         ✓
                        (2+3)+4 = 5+4 = 9
                        2+(3+4) = 2+7 = 9

   G3. Нейтральный:   e = 0,  потому что a + 0 = 0 + a = a       ✓

   G4. Обратный:      a⁻¹ = −a,  потому что a + (−a) = 0         ✓

 Дополнительно: a + b = b + a  →  Абелева группа

 Визуализация: Сдвиги по числовой прямой

     ←----------●----------→
     ... -2  -1  0  1  2  3 ...

     +3 = "сдвинуться вправо на 3"
     −2 = "сдвинуться влево на 2"
      0 = "остаться на месте"


 Пример 2: Циклическая группа ℤ/n (или ℤₙ)


 Множество: ℤ/n = {0, 1, 2, ..., n−1}
 Операция:  сложение по модулю n

 Пример: ℤ/4 = {0, 1, 2, 3} — "арифметика часов" с 4 делениями

     Таблица Кэли (таблица умножения группы):

       +  |  0    1    2    3
     -----+--------------------
       0  |  0    1    2    3       0 — нейтральный элемент
       1  |  1    2    3    0       (строка и столбец для 0
       2  |  2    3    0    1        совпадают с заголовками)
       3  |  3    0    1    2

   Проверка: 2 + 3 = 5 mod 4 = 1  ✓ (см. таблицу)
             3 + 3 = 6 mod 4 = 2  ✓

 Визуализация:                   Нейтральный: e = 0
                                 Обратные:
        0                          0⁻¹ = 0  (0+0=0)
     3     1                       1⁻¹ = 3  (1+3=4≡0)
        2                          2⁻¹ = 2  (2+2=4≡0)
                                   3⁻¹ = 1  (3+1=4≡0)
   Сдвиги по кругу из 4 точек

 Генератор: Элемент g, степени которого дают всю группу.
            В ℤ/4: g = 1, потому что 1, 1+1=2, 1+1+1=3, 1+1+1+1=0
            Также g = 3 подходит: 3, 3+3=2, 3+3+3=1, 3+3+3+3=0
            Но g = 2 не подходит: 2, 2+2=0, 2+2+2=2, ... (не все элементы)


 Пример 3: Симметрии равностороннего треугольника D₃


 Симметрии треугольника — все способы положить его "тем же образом":

         1
        /\              Повороты:   e  = не вращать
       /  \                         r  = на 120° против часовой
      /    \                        r² = на 240° (= r∘r)
     /______\
    3        2          Отражения:  s₁ = относительно высоты из 1
                                    s₂ = относительно высоты из 2
                                    s₃ = относительно высоты из 3

 Всего 6 элементов: D₃ = {e, r, r², s₁, s₂, s₃}

     Таблица Кэли (композиция: сначала столбец, потом строка):

       ∘   |  e    r    r²   s₁   s₂   s₃
     ------+------------------------------
       e   |  e    r    r²   s₁   s₂   s₃
       r   |  r    r²   e    s₃   s₁   s₂
       r²  |  r²   e    r    s₂   s₃   s₁
       s₁  |  s₁   s₂   s₃   e    r    r²
       s₂  |  s₂   s₃   s₁   r²   e    r
       s₃  |  s₃   s₁   s₂   r    r²   e

 Наблюдения:
   • r ∘ s₁ = s₃,  но  s₁ ∘ r = s₂  →  неабелева
   • Подгруппа поворотов {e, r, r²} ≅ ℤ/3 — абелева
   • Каждое отражение: sᵢ² = e (применить дважды = ничего)

 Физический смысл: D₃ описывает симметрию молекулы с треугольной структурой
                   (например, BF₃ — трифторид бора)


 Пример 4: Группы перестановок Sₙ


 Sₙ = все перестановки n элементов
 |Sₙ| = n! элементов

 Пример: S₃ — все перестановки {1, 2, 3}

   Обозначение:  σ = (σ(1), σ(2), σ(3))

     e   = (1, 2, 3)  — тождественная перестановка
     σ₁  = (1, 3, 2)  — меняет местами 2 и 3
     σ₂  = (3, 2, 1)  — меняет местами 1 и 3
     σ₃  = (2, 1, 3)  — меняет местами 1 и 2
     σ₄  = (2, 3, 1)  — циклический сдвиг 1→2→3→1
     σ₅  = (3, 1, 2)  — циклический сдвиг 1→3→2→1

 Композиция: (σ ∘ τ)(x) = σ(τ(x))  — сначала τ, потом σ

 Цикловая запись (более компактная):
   σ₃ = (1 2) — транспозиция (меняет 1↔2, остальные на месте)
   σ₄ = (1 2 3) — 3-цикл (1→2, 2→3, 3→1)

 Факт: S₃ ≅ D₃ (группа перестановок 3 элементов изоморфна симметриям △)

 Критически важно:
   S₅ — неразрешимая группа (её нормальный ряд не достигает {e}
   через абелевы факторы). По теореме Абеля-Руффини это означает,
   что уравнение 5-й степени не решается в радикалах.


 Пример 5: Ненулевые действительные числа (ℝ*, ×)


 Множество: ℝ* = ℝ \ {0} = все действительные, кроме нуля
 Операция:  умножение ×

 Проверка аксиом:

   G1. Замкнутость:   a × b ∈ ℝ* для a, b ≠ 0                    ✓
                      (произведение ненулевых ненулевое)

   G2. Ассоциативность: (a×b)×c = a×(b×c)                         ✓

   G3. Нейтральный:   e = 1,  потому что a × 1 = 1 × a = a       ✓

   G4. Обратный:      a⁻¹ = 1/a,  потому что a × (1/a) = 1       ✓
                      (вот почему 0 исключён — у него нет обратного)

 Почему (ℝ, ×) не группа:
   × (что угодно) = 0,  но 0 × ? = 1 не имеет решения.
   У нуля нет обратного элемента.


 Что не является группой — контрпримеры

+-----------------+-----------------------+--------------------+
| СТРУКТУРА       | Почему не группа      | Как исправить      |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℕ, +)          | Нет обратных:         | → (ℤ, +) добавить  |
| натуральные     | 3 + ? = 0 не решается | отрицательные      |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℤ, ×)          | Обратные не целые:    | → (ℚ*, ×) перейти  |
| целые           | 2⁻¹ = ½ ∉ ℤ           | к рациональным     |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℝ, ×)          | 0 не имеет обратного  | → (ℝ*, ×) убрать 0 |
| действительные  | 0 × ? = 1 не решается |                    |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| Матрицы n×n с × | det=0 → нет обратной  | → GL(n) только     |
|                 |                       | обратимые (det≠0)  |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+

===============================================================================
Подгруппы
===============================================================================

 Определение:
 H ≤ G называется подгруппой G (обозначение ≤, а не ⊆), если H — группа
 относительно той же операции (наследованной от G).

 Обозначение H ≤ G стандартно для подгрупп, H ⊆ G — для подмножеств.

 Критерий подгруппы (удобный для проверки):

   +-----------------------------------------+
   | H ≤ G  ⟺  H ≠ ∅  и  ∀a,b ∈ H: a·b⁻¹ ∈ H |
   +-----------------------------------------+

 (Одно условие вместо четырёх аксиом)

 Почему работает:
   • H ≠ ∅ ⇒ ∃a ∈ H ⇒ a·a⁻¹ = e ∈ H  (нейтральный есть)
   • e ∈ H ⇒ e·b⁻¹ = b⁻¹ ∈ H  (обратные есть)
   • a, b⁻¹ ∈ H ⇒ a·(b⁻¹)⁻¹ = a·b ∈ H  (замкнутость)

-------------------------------------------------------------------------------
 Примеры подгрупп
-------------------------------------------------------------------------------

   Группа              подгруппа                    обозначение
-------------------------------------------------------------------------------
   (ℤ, +)              Чётные числа 2ℤ               2ℤ < ℤ
                       Кратные 3: 3ℤ                 3ℤ < ℤ
                       Кратные n: nℤ                 nℤ < ℤ

   (ℝ*, ×)             Положительные ℝ⁺              ℝ⁺ < ℝ*
                       {1, −1}                       {±1} < ℝ*

   D₄ (симметрии □)    Повороты {e, r, r², r³}       ≅ ℤ/4
                       {e, r²}                       ≅ ℤ/2
                       {e, s} для любого отражения   ≅ ℤ/2

   GL(n) (обратимые    SL(n) = {A : det A = 1}       специальная лин. группа
   матрицы)            O(n) = {A : AᵀA = I}          ортогональная группа
                       SO(n) = O(n) ∩ SL(n)          спец. ортогональная
-------------------------------------------------------------------------------
 Тривиальные подгруппы:
   {e} — тривиальная подгруппа (есть в любой группе)
   G — сама группа (несобственная подгруппа)

-------------------------------------------------------------------------------
 Теорема Лагранжа
-------------------------------------------------------------------------------

   +---------------------------------------------------------------------+
   |  Если G — конечная группа и H — подгруппа G, то:                    |
   |                                                                     |
   |              |H| делит |G|                                          |
   |                                                                     |
   |  Более того: |G| = |H| × [G : H], где [G : H] — индекс подгруппы   |
   +---------------------------------------------------------------------+

 Следствия:

   • Порядок элемента делит порядок группы
     (порядок элемента a = наименьшее n: aⁿ = e)

   • Группа простого порядка p — циклическая
     (других подгрупп, кроме {e} и G, нет)

   • В S₄ (24 элемента) подгруппы могут иметь порядок
     1, 2, 3, 4, 6, 8, 12, 24 (делители 24)
     Подгруппы порядка 5 или 7 невозможны


===============================================================================
Гомоморфизмы и изоморфизмы
===============================================================================

 Гомоморфизм — отображение, сохраняющее структуру


 Отображение φ: G → H называется гомоморфизмом групп, если:

   +---------------------------------------------+
   | ∀a, b ∈ G:   φ(a · b) = φ(a) ∗ φ(b)         |
   |                                             |
   | "Образ произведения = произведение образов" |
   +---------------------------------------------+

 Свойства (следуют автоматически):
   • φ(eG) = eH            (образ нейтрального — нейтральный)
   • φ(a⁻¹) = φ(a)⁻¹       (образ обратного — обратный)

 Примеры гомоморфизмов:
 +-------------------------+-------------------------------------+
 | ГОМОМОРФИЗМ             | ПРОВЕРКА: φ(a·b) = φ(a)*φ(b)        |
 +-------------------------+-------------------------------------+
 | exp: (ℝ,+) → (ℝ⁺,×)     | exp(a+b) = exp(a)×exp(b) ✓          |
 | det: (GL(n),×) → (ℝ*,×) | det(AB) = det(A)×det(B) ✓           |
 | sign: (Sₙ,∘) → ({±1},×) | sign(σ∘τ) = sign(σ)×sign(τ) ✓       |
 | mod n: (ℤ,+) → (ℤ/n,+)  | (a+b) mod n = (a mod n)+(b mod n) ✓ |
 +-------------------------+-------------------------------------+

-------------------------------------------------------------------------------
 Ядро и образ
-------------------------------------------------------------------------------

 Для гомоморфизма φ: G → H:

 +---------+------------------------+------------------------+
 | ПОНЯТИЕ | ОПРЕДЕЛЕНИЕ            | СВОЙСТВА               |
 +---------+------------------------+------------------------+
 | Ker(φ)  | {a ∈ G : φ(a) = eH}    | Нормальная подгруппа G |
 | (ядро)  | Что переходит в нейтр. | φ инъект. ⟺ Ker={e}    |
 +---------+------------------------+------------------------+
 | Im(φ)   | {φ(a) : a ∈ G} ⊆ H     | Подгруппа H            |
 | (образ) | Куда попадает G        | φ сюръект. ⟺ Im=H      |
 +---------+------------------------+------------------------+

 Пример: φ: ℤ → ℤ/6,  φ(k) = k mod 6
   Ker(φ) = 6ℤ = {..., −12, −6, 0, 6, 12, ...}
   Im(φ)  = ℤ/6 = {0, 1, 2, 3, 4, 5}

-------------------------------------------------------------------------------
 ★ Первая теорема об изоморфизме — фундаментальный результат
-------------------------------------------------------------------------------

 Теорема: Для любого гомоморфизма φ: G → H выполняется:

                        G / Ker(φ)  ≅  Im(φ)

 Геометрическая интуиция:

        G                           H
   +-------------+             +-------------+
   |  ○ ○ ○ ○    |     φ       |             |
   |  | | | |    | ---------▶  |   ●   ●     |   Im(φ) — куда попали
   |  ○ ○ ○ ○    |             |   |   |     |
   |  | | | |    |             |   ●   ●     |
   |  ○ ○ ○ ○    |             |             |
   +-------------+             +-------------+
       ↓
   Склеиваем элементы
   с одинаковым образом
       ↓
   +---------+
   |  ◉   ◉  |  G/Ker(φ)  — классы смежности
   |  ◉   ◉  |  (элементы, переходящие в одну точку, склеены)
   +---------+

 Смысл: "Факторизация по ядру убирает всё лишнее и оставляет только образ"

 Факторгруппа G/H — это фактор-множество G/∼, где
 отношение эквивалентности ∼ определено как g₁ ∼ g₂ ⟺ g₁g₂⁻¹ ∈ H.
 Ключевое условие: чтобы на G/∼ корректно определить групповую операцию,
 подгруппа H должна быть нормальной (gHg⁻¹ = H для всех g ∈ G).

 Пример: φ: ℤ → ℤ/6,  k ↦ k mod 6

   Ker(φ) = 6ℤ = {..., -6, 0, 6, 12, ...}
   Im(φ)  = ℤ/6

   Теорема: ℤ / 6ℤ ≅ ℤ/6  ✓
            (факторгруппа по ядру изоморфна образу)


 Изоморфизм — когда группы "одинаковые"


 Изоморфизм φ: G → H — гомоморфизм + биекция. Пишем G ≅ H.
 "G и H — одна группа, различаются только именами элементов"

 +-------------------+--------------------+--------------------------+
 | ИЗОМОРФИЗМ        | ОТОБРАЖЕНИЕ        | ПОЧЕМУ РАБОТАЕТ          |
 +-------------------+--------------------+--------------------------+
 | (ℤ, +) ≅ (2ℤ, +)  | φ(n) = 2n          | Чётные ↔ все целые       |
 | (ℝ, +) ≅ (ℝ⁺, ×)  | φ = exp, φ⁻¹ = ln  | Сложение ↔ умножение     |
 | ℤ/6 ≅ ℤ/2 × ℤ/3   | k ↦ (k mod2, mod3) | Китайская т. об остатках |
 | S¹ ≅ U(1) ≅ SO(2) | eⁱᶿ ↔ поворот на θ | Окружность ≅ вращения    |
 +-------------------+--------------------+--------------------------+

   ℤ/2 ≅ {±1}                         (два элемента, одна структура)
        φ(0) = 1,  φ(1) = −1

   S₃ ≅ D₃                            (6 элементов, симметрии △)

 Неизоморфные:

   ℤ/4 ≇ ℤ/2 × ℤ/2                   (разная структура)
        В ℤ/4 есть элемент порядка 4 (генератор).
        В ℤ/2 × ℤ/2 все элементы порядка ≤ 2.


===============================================================================
Группы в физике и жизни
===============================================================================

 Применения групп
+-----------------------+-------------------+----------------------------------+
| ОБЛАСТЬ               | ГРУППА            | ЧТО ОПИСЫВАЕТ                    |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Кристаллография       | 230 простр. групп | Все симметрии кристаллов         |
|                       |                   | NaCl: куб. симм. → оптика        |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Стандартная модель    | U(1)              | Электромагнетизм (фаза)          |
| физики частиц         | SU(2)             | Слабое взаимодействие            |
|                       | SU(3)             | Сильное взаимодействие (кварки)  |
|                       | U(1)×SU(2)×SU(3)  | Вся Стандартная модель           |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Теория относит.       | SO(3,1)           | Лоренц: сохраняет скорость света |
|                       |                   | 3 простр. + 1 время              |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Квант. механика       | SU(2)             | Спин частицы                     |
|                       |                   | e⁻: спин ½ → поворот 720°.       |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Музыка                | ℤ/12              | 12 полутонов, транспонирование   |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Криптография          | (ℤ/n)*            | RSA: мультипл. группа            |
|                       | Эллипт. кривые    | Группы точек на кривых           |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| теплофизика           | Группа подобия    | Размерный анализ = Группы Ли.    |
| (пример для инженера) | (масштабирование) |                                  |
|                       |                   | Поиск формулы Nu = f(Re, Pr)     |
|                       |                   | = выбор орбиты группы Ли по      |
|                       |                   | значениям инвариантов (Re, Pr)   |
|                       |                   |                                  |
|                       |                   | Физ.величины (α, λ, v, L) —      |
|                       |                   | координаты на многообразии,      |
|                       |                   | симметричном относительно        |
|                       |                   | действия группы масштабирования  |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Комбинаторика         | Любая G           | Подсчёт "с точностью до симм."   |
|                       |                   | Лемма Бёрнсайда                  |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+

 Теоремы Силова — структура конечных групп

 Пусть |G| = pⁿ·m, где p простое и gcd(p, m) = 1.

 Силов-подгруппа: подгруппа порядка pⁿ (максимальная p-степень)

-------------------------------------------------------------------------------
 Теорема 1: Силов-подгруппа существует
-------------------------------------------------------------------------------
   Для любого простого p, делящего |G|, существует подгруппа порядка pⁿ.

-------------------------------------------------------------------------------
 Теорема 2: Все Силов-подгруппы сопряжены
-------------------------------------------------------------------------------
   Любые две p-Силов-подгруппы P и Q связаны: Q = gPg⁻¹ для некоторого g.

-------------------------------------------------------------------------------
 Теорема 3: Число Силов-подгрупп nₚ удовлетворяет
-------------------------------------------------------------------------------
   • nₚ ≡ 1 (mod p)
   • nₚ делит m = |G|/pⁿ

 Применение — классификация малых групп:

   |G| = 15 = 3·5:  n₃ | 5 и n₃ ≡ 1 (mod 3) ⇒ n₃ = 1
                    n₅ | 3 и n₅ ≡ 1 (mod 5) ⇒ n₅ = 1
                    Единственные Силов-подгруппы ⇒ нормальны ⇒ G ≅ ℤ₁₅

   Теоремы Силова — мощный инструмент: из размера группы можно вывести
   её структуру.


 Куда ведёт — связь с другими разделами
+----------------------+---------------+------------------------------+
| НАПРАВЛЕНИЕ          | СВЯЗЬ         | ИДЕЯ                         |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Группы Ли            | → (многообр.) | Группа + гладкая структура   |
|                      |               | SO(3), SU(2), GL(n)          |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Теория представлений | → (лин.алг.)  | g ↦ матрица ρ(g)             |
|                      |               | Группа через лин. алгебру    |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Теорема Нётер        | → (ДУ)        | Симметрия → закон сохранения |
|                      |               | Сдвиг t → энергия            |
|                      |               | Поворот → момент импульса    |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Фунд. группа π₁      | → (топология) | Петли образуют группу        |
|                      |               | Классификация пространств    |
|                      |               |                              |
+----------------------+---------------+------------------------------+

-------------------------------------------------------------------------------
Резюме: иерархия алгебраических структур
-------------------------------------------------------------------------------

 От простого к сложному


   Множество
       |
       | + одна операция + аксиомы группы
       ↓
   Группа (G, ·)
       |
       | + коммутативность
       ↓
   Абелева группа
       |
       | + вторая операция с дистрибутивностью
       ↓
   Кольцо (R, +, ×)
       |
       | + обратные для ×
       ↓
   Поле (F, +, ×) ← умножение коммутативно

       Важно: Поле = коммутативное умножение (ab = ba).
       Если убрать коммутативность ⇒ Тело (Division Ring).
       Пример тела: Кватернионы ℍ (ij ≠ ji).

   Далее — другой тип объекта (не «частный случай поля»,
   а новое множество V с действием поля F на него):

   Множество V + поле F + сложение в V + умножение на скаляры из F
       ↓
   Векторное пространство (V над F)
       |
       | + норма ‖·‖
       ↓
   Нормированное пространство
       |
       | + полнота (все пределы существуют)
       ↓
   Банахово пространство
       |
       | + скалярное произведение (‖x‖² = ⟨x,x⟩)
       ↓
   Гильбертово пространство

 Каждый уровень наследует структуру от предыдущего + добавляет новое.

-------------------------------------------------------------------------------
 Главная мысль
-------------------------------------------------------------------------------

   Группа = минимальная структура для описания симметрий.

   Если можешь:
     • Комбинировать преобразования (композиция)
     • Ничего не делать (нейтральный)
     • Отменять действия (обратный)

   — у нас группа.

   Симметрии объекта определяют его свойства.
   Группа симметрий — это "ДНК" объекта.

-------------------------------------------------------------------------------
 Прикладной пример: балансировка ротора турбины
-------------------------------------------------------------------------------

 Задача: Ротор турбины с 6 лопатками. При вращении возникает вибрация.
 Нужно понять, какие дефекты лопаток вызывают какие частоты вибрации.

                     ●
                    /|\        Группа симметрий ротора:
                  ╱  |  ╲      C₆ = {e, r, r², r³, r⁴, r⁵}
                ●    |    ●    где r = поворот на 60°
                |    ○    |
                ●    |    ●    Это циклическая группа порядка 6
                  ╲  |  ╱
                    \|/
                     ●

 Ключевой факт: Вибрация ротора раскладывается по представлениям группы C₆

 +-----------------+---------------------+---------------------------------+
 | ПРЕДСТАВЛЕНИЕ   | ФИЗИЧЕСКИЙ СМЫСЛ    | ЧАСТОТА ВИБРАЦИИ                |
 +-----------------+---------------------+---------------------------------+
 | Тривиальное     | Все лопатки одинак. | Нет вибрации (идеальный баланс) |
 | (симметричное)  | отклонены           |                                 |
 +-----------------+---------------------+---------------------------------+
 | Знакопеременное | Чередование ±       | f = 3 × об/с (3-кратная)        |
 |                 | "через одну"        |                                 |
 +-----------------+---------------------+---------------------------------+
 | 2-мерные        | Дисбаланс "волной"  | f = n × об/с (1×, 2×)           |
 | представления   | по окружности       |                                 |
 +-----------------+---------------------+---------------------------------+

 Практическое применение:
   • Если вибрация на частоте 1× об/с → статический дисбаланс (одна лопатка)
   • Если вибрация на частоте 2× об/с → пара противоположных лопаток
   • Если вибрация на частоте 3× об/с → каждая вторая лопатка

 Теория групп позволяет классифицировать типы дисбаланса до измерений

-------------------------------------------------------------------------------
 Ещё пример: трёхфазная электрическая сеть
-------------------------------------------------------------------------------

 Три фазы: A, B, C со сдвигом 120°

 Группа симметрий: C₃ = {e, r, r²} где r = сдвиг фаз на 120°

   • Симметричная нагрузка (все фазы одинаковы) → ток в нейтрали = 0
   • Нарушение симметрии → ток в нейтрали ≠ 0

 Метод симметричных составляющих (Фортескью): разложение несимметричной
 системы на симметричные компоненты — это разложение по представлениям C₃.


===============================================================================
Иерархия алгебраических структур
===============================================================================

-------------------------------------------------------------------------------
 Зачем нужны разные структуры
-------------------------------------------------------------------------------

 Каждая структура — ответ на вопрос: "Что мы хотим уметь делать?"

   Хотим складывать                    → Полугруппа
   + есть "ноль"                       → Моноид
   + можно вычитать                    → Группа
   + порядок не важен                  → Абелева группа
   + можно умножать                    → Кольцо
   + можно делить (кроме на 0)         → Поле

 Чем больше операций — тем больше можем, но тем меньше примеров.

-------------------------------------------------------------------------------
 Иерархия: что добавляется на каждом шаге
-------------------------------------------------------------------------------

  Полугруппа ------→ моноид ------→ группа ------→ абелева группа
       |                |              |                  |
   ассоциативность  + единица    + обратные      + коммутативность
   a(bc)=(ab)c        a·e=a       a·a⁻¹=e           ab=ba
       |                |              |                  |
   Пример:          Пример:       Пример:           Пример:
   (ℕ⁺, ·)          (ℕ, +, 0)     (ℤ, +, 0)         (ℤ, +)


  Абелева группа ------→ кольцо ------→ поле
         |                   |             |
     (одна операция)   + умножение    + деление
                       дистрибут.      (кроме 0)
                       a(b+c)=ab+ac    a≠0 ⇒ ∃a⁻¹
         |                   |             |
     Пример:             Пример:       Пример:
     (ℤ, +)              (ℤ, +, ×)     (ℚ, +, ×)


 Где встречаются в жизни
+------------+---------------------------------------------------+
| СТРУКТУРА  | ПРИМЕРЫ                                           |
+------------+---------------------------------------------------+
|            |                                                   |
| Полугруппа | Конкатенация строк "abc"+"def"="abcdef"           |
|            | (на самом деле моноид — есть пустая строка "")    |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Моноид     | (ℕ, +, 0) — натуральные с нулём. Вычитать нельзя. |
|            | Функции с композицией ∘ и единицей id             |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Группа     | Симметрии (всё можно отменить)                    |
|            | Криптография: эллиптические кривые, RSA           |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Кольцо     | Многочлены ℤ[x] — можно +,−,×, но не ÷            |
|            | Матрицы n×n — не всякая обратима                  |
|            | Целые ℤ — 5÷2 не целое.                           |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Поле       | ℚ, ℝ, ℂ — всё можно: +,−,×,÷                      |
|            | Конечные поля 𝔽ₚ — криптография, коды             |
|            |                                                   |
+------------+---------------------------------------------------+

Сводная таблица:
+----------------+--------+---------+----------+-----------+---+---------+
| СТРУКТУРА      | АССОЦ. | ЕДИНИЦА | ОБРАТНЫЕ | КОММУТАТ. | × | ДЕЛЕНИЕ |
+----------------+--------+---------+----------+-----------+---+---------+
| Полугруппа     | ✓      |         |          |           |   |         |
| Моноид         | ✓      | ✓       |          |           |   |         |
| Группа         | ✓      | ✓       | ✓        |           |   |         |
| Абелева группа | ✓      | ✓       | ✓        | ✓         |   |         |
| Кольцо         | ✓      | ✓       | ✓        | (+)       | ✓ |         |
| Поле           | ✓      | ✓       | ✓        | ✓✓        | ✓ | ✓       |
+----------------+--------+---------+----------+-----------+---+---------+

-------------------------------------------------------------------------------
 Почему это важно
-------------------------------------------------------------------------------

 Когда видишь новый объект, спроси: "Какая это структура?"

   • Матрицы — кольцо (умножать можно, делить не всегда)
   • Функции [0,1]→ℝ — векторное пространство (над полем ℝ)
   • Перестановки — группа (всё обратимо)
   • Многочлены — кольцо (или даже алгебра над полем)

 Зная структуру — знаешь, какие теоремы применимы.


===============================================================================
Кольца и поля — арифметика + алгебра
===============================================================================

-------------------------------------------------------------------------------
 Зачем это инженеру?
-------------------------------------------------------------------------------

 Кольца и поля — это не абстракция ради абстракции. Это основа:

   • Криптография: RSA работает в кольце ℤₙ (остатки от деления)
   • Коды ошибок: QR-коды, CD, интернет — поля Галуа GF(2⁸)
   • Дискретная математика: хеш-функции, контрольные суммы
   • Сигналы: Z-преобразование — это кольцо формальных рядов

 Главная идея: иногда нужна арифметика, где числа "заворачиваются"
 (как часы: после 12 идёт 1), или где деление работает иначе.

Группа — это одна операция. Но в арифметике есть две: сложение и умножение.
Как их совместить?

-------------------------------------------------------------------------------
 Кольцо = две связанные операции
-------------------------------------------------------------------------------

 Интуиция: Кольцо — это "арифметика", где можно складывать, вычитать,
 умножать, но не обязательно делить.

 Формально: Кольцо (R, +, ·) — это множество R с двумя операциями:

   • (R, +) — абелева группа (сложение работает как обычно)
   • (R, ·) — моноид (умножение есть, но обратных может не быть)
   • a·(b + c) = a·b + a·c  (дистрибутивность — скобки раскрываются)

 Примеры:

   +-----------------+---------------------------------------+
   | Кольцо          | Почему кольцо, а не поле               |
   +-----------------+---------------------------------------+
   | ℤ (целые)       | 2 не обратим: 1/2 ∉ ℤ                 |
   | ℤₙ (остатки)    | Если n не простое, есть делители нуля |
   | ℤ[x] (многочл.) | x не обратим: 1/x — не многочлен      |
   | Mₙ(ℝ) (матрицы) | Вырожденные матрицы не обратимы       |
   +-----------------+---------------------------------------+

 Делители нуля — странность колец:
   В ℤ₆:  2 · 3 = 6 = 0 (mod 6)
   Оба множителя ненулевые, но произведение = 0.
   Это не бывает в обычных числах — признак "дефекта" структуры.

-------------------------------------------------------------------------------
 Поле = Кольцо, где можно делить
-------------------------------------------------------------------------------

 Интуиция: Поле — это "полноценная арифметика" с делением.
 Всё, чему нас учили в школе про числа — это свойства полей.

 Формально: Поле — кольцо, где каждый a ≠ 0 имеет обратный a⁻¹.

 Примеры полей:
   • ℚ (рациональные) — минимальное поле, содержащее ℤ
   • ℝ (вещественные) — пополнение ℚ
   • ℂ (комплексные) — алгебраически замкнуто
   • ℤₚ = ℤ/pℤ при простом p — конечное поле (важно для криптографии)
     (в современной литературе часто пишут 𝔽ₚ; обозначение ℤ_p —
     с нижним подчёркиванием — резервируется за p-адическими целыми)

 Почему ℤₚ — поле при простом p?

   В ℤ₅: элементы {0, 1, 2, 3, 4}

   Обратные: 1⁻¹ = 1,  2⁻¹ = 3 (потому что 2·3 = 6 = 1 mod 5)
             3⁻¹ = 2,  4⁻¹ = 4 (потому что 4·4 = 16 = 1 mod 5)

   Каждый ненулевой элемент обратим. Это поле.

 Почему ℤ₆ — не поле?

   В ℤ₆: 2 · 3 = 0, значит 2 и 3 — делители нуля.
   Делитель нуля не может быть обратим (иначе 0 = 2⁻¹·0 = 2⁻¹·2·3 = 3 ≠ 0).

 Теорема: ℤₙ — поле ⟺ n простое.

-------------------------------------------------------------------------------
 Идеалы — "делимость" в абстрактном кольце
-------------------------------------------------------------------------------

 Интуиция: Идеал — это обобщение понятия "все числа, делящиеся на n".

 В ℤ: множество всех чисел, делящихся на 3 — это {…, -6, -3, 0, 3, 6, …}
      Обозначение: 3ℤ или (3)

 Ключевое свойство: если a делится на 3, то и a·k делится на 3.
 "Делимость впитывает умножение" — это и есть определение идеала.

 Формально: Идеал I ⊂ R — это подмножество, такое что:
   • I — подгруппа по сложению
   • a ∈ I, r ∈ R  ⇒  r·a ∈ I  (умножение на любой элемент оставляет в I)

 Примеры:

   +----------------+----------------------------------------+
   | КОЛЬЦО         | ПРИМЕРЫ ИДЕАЛОВ                        |
   +----------------+----------------------------------------+
   | ℤ              | nℤ = {nk : k ∈ ℤ} — все идеалы такие   |
   | ℝ[x]           | (x² + 1) = все кратные (x² + 1)        |
   | C(X) (функции) | {f : f(x₀) = 0} — функции с нулём в x₀ |
   +----------------+----------------------------------------+

 Зачем идеалы?
   Идеалы позволяют "склеивать" элементы кольца — как нормальные подгруппы
   позволяют склеивать элементы группы. Результат — фактор-кольцо.

-------------------------------------------------------------------------------
 Фактор-кольцо — "арифметика остатков"
-------------------------------------------------------------------------------

 Интуиция: Фактор-кольцо R/I — это "склеивание" элементов, отличающихся
 на элемент из I. Как будто всё из I стало нулём.

 Главный пример:

   ℤ/3ℤ = {0̄, 1̄, 2̄} — остатки от деления на 3

   Здесь 0̄ = {..., -6, -3, 0, 3, 6, ...} (все кратные 3 "склеились" в 0)
         1̄ = {..., -5, -2, 1, 4, 7, ...}
         2̄ = {..., -4, -1, 2, 5, 8, ...}

   Арифметика: 2̄ + 2̄ = 4̄ = 1̄,   2̄ · 2̄ = 4̄ = 1̄

 Более глубокий пример — как построить ℂ:

   Проблема: в ℝ нет корня из -1.
   Решение: ℂ = ℝ[x]/(x² + 1)

   Берём многочлены от x с коэффициентами из ℝ.
   "Склеиваем" все кратные (x² + 1), то есть полагаем x² + 1 = 0.
   Тогда x² = -1, и x играет роль i.

   Элементы: a + bx (старшие степени редуцируются: x² → -1)
   Это в точности комплексные числа a + bi.

-------------------------------------------------------------------------------
 Конечные поля — криптография и коды
-------------------------------------------------------------------------------

 Теорема: Конечное поле существует тогда и только тогда, когда число
 элементов = pⁿ (степень простого). Обозначение: GF(pⁿ) или 𝔽_{pⁿ}.

   • GF(2) = {0, 1} — двоичная арифметика (XOR = сложение)
   • GF(2⁸) = 256 элементов — используется в AES, QR-кодах
   • GF(p) = ℤₚ — простейшие конечные поля

 Пример: GF(4) — поле из 4 элементов

   Нельзя просто взять ℤ₄ — там 2·2 = 0, делители нуля.

   Правильная конструкция: GF(4) = GF(2)[x]/(x² + x + 1)
   Элементы: {0, 1, x, x+1} с арифметикой mod 2 и mod (x² + x + 1)

   Таблица умножения:
   +---+---+---+---+-------+------+
   | · | 0 |   1   |   x   |  x+1 |
   +---+---+---+---+-------+------+
   | 0 | 0 |   0   |   0   |   0  |
   | 1 | 0 |   1   |   x   |  x+1 |
   | x | 0 |   x   |  x+1  |   1  |   ← x² = x+1 (из x²+x+1=0)
   |x+1| 0 |  x+1  |   1   |   x  |
   +---+---+-------+-------+------+

 Применение: Reed-Solomon коды (CD, DVD, QR) работают над GF(2⁸).
 Это позволяет исправлять ошибки математически точно.

-------------------------------------------------------------------------------
 Иерархия: от множества к полю
-------------------------------------------------------------------------------

         Множество (просто элементы)
              |
              ▼ + одна операция
         Полугруппа (ассоциативность)
              |
              ▼ + нейтральный элемент
          Моноид
              |
              ▼ + обратные элементы
          Группа
              |
              ▼ + коммутативность
       Абелева группа
              |
              ▼ + вторая операция (умножение) + дистрибутивность
          Кольцо (ℤ, ℤ[x], матрицы)
              |
              ▼ + нет делителей нуля
     Область целостности (ℤ)
              |
              ▼ + каждый ненулевой обратим
           Поле (ℚ, ℝ, ℂ, ℤₚ)

 На каждом шаге добавляется свойство → структура становится "лучше".
 Поле — самая "хорошая" арифметическая структура.


===============================================================================
Теория чисел — арифметика как структура
===============================================================================

 Теория чисел как взгляд на пространство


 Числа — это не просто объекты для вычислений. Числа образуют пространства
 с богатой структурой.

 +-------------------+------------------------+----------------------------+
 | ПРОСТРАНСТВО      | СТРУКТУРА              | ЧТО ИЗУЧАЕМ                |
 +-------------------+------------------------+----------------------------+
 | ℤ                 | Кольцо (+ и ×)         | Делимость, простые числа   |
 |                   | + порядок              |                            |
 +-------------------+------------------------+----------------------------+
 | ℤₙ = ℤ/nℤ          | Конечное кольцо        | Модулярная арифметика      |
 | (остатки mod n)   | При n=p — поле.        | Криптография               |
 +-------------------+------------------------+----------------------------+
 | ℚₚ (p-адические)  | Поле с ультраметрикой  | Локальный анализ           |
 |                   | |x+y|ₚ ≤ max(|x|ₚ,|y|ₚ)| Диофантовы уравнения       |
 +-------------------+------------------------+----------------------------+
 | ℤ[i] (Гауссовы)   | Кольцо в ℂ             | Суммы двух квадратов       |
 |                   | Евклидово              |                            |
 +-------------------+------------------------+----------------------------+

 Ключевая идея: Одно и то же число можно рассматривать в разных пространствах

   Число 7:
     • В ℤ: простое, неразложимо
     • В ℤ₇: нуль (7 ≡ 0 mod 7)
     • В ℤ[i]: всё ещё простое (7 ≡ 3 mod 4, не сумма двух квадратов)
     • В ℤ[√-5]: остаётся простым

   Число 6 в ℤ[√-5]: два разных разложения.
     = 2 · 3 = (1+√-5)(1-√-5)
     Это показывает, что в ℤ[√-5] нет единственности разложения.

 Теория чисел изучает, как арифметические свойства зависят от
 алгебраической структуры пространства.


Теория чисел изучает свойства целых чисел. Это одна из древнейших областей
математики, но она связана с самыми современными: криптографией, алгебраической
геометрией, теорией представлений.

-------------------------------------------------------------------------------
 Делимость — базовые понятия
-------------------------------------------------------------------------------

 a | b  означает  "a делит b"  ⟺  ∃k ∈ ℤ: b = a·k

 +-------------------+---------------------------------------------------+
 | ПОНЯТИЕ           | ОПРЕДЕЛЕНИЕ                                       |
 +-------------------+---------------------------------------------------+
 | НОД(a,b) = gcd    | Наибольший общий делитель                         |
 |                   | max{d : d|a и d|b}                                |
 +-------------------+---------------------------------------------------+
 | НОК(a,b) = lcm    | Наименьшее общее кратное                          |
 |                   | min{m > 0 : a|m и b|m}                          |
 +-------------------+---------------------------------------------------+
 | Взаимно простые   | gcd(a,b) = 1                                      |
 +-------------------+---------------------------------------------------+
 | Простое число p   | p > 1, делители только 1 и p                    |
 +-------------------+---------------------------------------------------+

 Ключевое соотношение:  gcd(a,b) · lcm(a,b) = a · b

-------------------------------------------------------------------------------
 Основная теорема арифметики
-------------------------------------------------------------------------------

 Каждое натуральное число n > 1 единственным образом (с точностью до
 порядка) раскладывается в произведение простых:

   n = p₁^{a₁} · p₂^{a₂} · ... · pₖ^{aₖ}

 +---------------------+
 | Примеры:            |
 | 60 = 2² · 3 · 5     |
 | 100 = 2² · 5²       |
 | 2024 = 2³ · 11 · 23 |
 +---------------------+

 Следствия:

 +--------------------+--------------------------------------------------+
 | ОПЕРАЦИЯ           | ЧЕРЕЗ РАЗЛОЖЕНИЕ                                 |
 +--------------------+--------------------------------------------------+
 | gcd(a,b)           | Произведение p^{min(aₚ, bₚ)} по всем p           |
 | lcm(a,b)           | Произведение p^{max(aₚ, bₚ)} по всем p           |
 | a | b              | aₚ ≤ bₚ для всех p                               |
 | Число делителей    | (a₁+1)(a₂+1)·…·(aₖ+1)                            |
 +--------------------+--------------------------------------------------+

 Аналогия с векторами:
   Число n ↔ вектор (a₁, a₂, a₃, ...) — показатели степеней простых
   Умножение ↔ сложение векторов
   gcd ↔ покомпонентный min
   lcm ↔ покомпонентный max

-------------------------------------------------------------------------------
 Сравнения по модулю — арифметика остатков
-------------------------------------------------------------------------------

 a ≡ b (mod n)  означает  n | (a − b)  ⟺  a и b дают одинаковый остаток

 +----------------------------------------------------------------------+
 | СВОЙСТВА (сравнения можно складывать, умножать, возводить в степень) |
 +----------------------------------------------------------------------+
 | a ≡ b, c ≡ d  ⇒  a + c ≡ b + d (mod n)                               |
 | a ≡ b, c ≡ d  ⇒  a · c ≡ b · d (mod n)                               |
 | a ≡ b         ⇒  aᵏ ≡ bᵏ (mod n)                                     |
 +----------------------------------------------------------------------+

 Кольцо ℤₙ = {0, 1, 2, ..., n−1} с операциями mod n

 +-------------+----------------------------------------------------+
 | n           | структура ℤₙ                                       |
 +-------------+----------------------------------------------------+
 | n = p       | Поле. Каждый ненулевой элемент обратим.            |
 | (простое)   | Пример: ℤ₅, где 2·3 = 6 ≡ 1, так что 2⁻¹ = 3       |
 +-------------+----------------------------------------------------+
 | n = pᵏ      | Локальное кольцо (единственный максимальный идеал) |
 +-------------+----------------------------------------------------+
 | n = p·q     | Есть делители нуля. В ℤ₆: 2·3 = 0                  |
 | (составное) | Но по КТО: ℤₙ ≅ ℤₚ × ℤ_q если gcd(p,q)=1            |
 +-------------+----------------------------------------------------+

 КТО (Китайская теорема об остатках):
   Если gcd(m,n) = 1, то ℤₘₙ ≅ ℤₘ × ℤₙ
   Практически: система x ≡ a (mod m), x ≡ b (mod n) имеет единств. решение

-------------------------------------------------------------------------------
 Малая теорема Ферма и функция Эйлера
-------------------------------------------------------------------------------

 φ(n) = функция Эйлера = количество чисел от 1 до n, взаимно простых с n

 +-------------+----------------+----------------------------------------+
 | n           | φ(n)           | ФОРМУЛА                                |
 +-------------+----------------+----------------------------------------+
 | p (простое) | p − 1          | Все кроме 0 взаимно просты с p         |
 | pᵏ          | pᵏ − pᵏ⁻¹      | = pᵏ(1 − 1/p)                          |
 | m·n         | φ(m)·φ(n)      | если gcd(m,n) = 1 (мультипликативна)   |
 | общий вид   | n∏(1 − 1/p)    | произведение по всем простым p | n     |
 +-------------+----------------+----------------------------------------+

 Теоремы:
 +---------------------+--------------------------------------+
 | Малая теорема Ферма | aᵖ ≡ a (mod p) для любого a          |
 | (p простое)         | Если gcd(a,p)=1: aᵖ⁻¹ ≡ 1 (mod p)    |
 +---------------------+--------------------------------------+
 | Теорема Эйлера      | a^{φ(n)} ≡ 1 (mod n) если gcd(a,n)=1 |
 | (обобщение)         | Это обобщение Ферма на составные n   |
 +---------------------+--------------------------------------+

 Применение — RSA криптография:
   Выбираем большие простые p, q. Пусть n = p·q, φ(n) = (p−1)(q−1).
   Выбираем e взаимно простое с φ(n), находим d: e·d ≡ 1 (mod φ(n)).
   Шифруем: c = mᵉ mod n. Расшифровываем: m = cᵈ mod n.
   Работает по теореме Эйлера: m^{ed} = m^{1 + kφ(n)} ≡ m (mod n).

-------------------------------------------------------------------------------
 P-адические числа — альтернативное пополнение ℚ
-------------------------------------------------------------------------------

 ℝ — это пополнение ℚ по обычной метрике |x − y|.
 Но есть другие метрики на ℚ.

 p-адическая норма:
   |x|ₚ = p^{−vₚ(x)}, где vₚ(x) = степень p в разложении x

 +-------------------------------------------------------------------------+
 | Примеры (p = 5):                                                        |
 |   |25|₅ = 5⁻² = 1/25    (25 = 5², много пятёрок → малая норма)          |
 |   |1/5|₅ = 5¹ = 5       (мало пятёрок в числителе)                      |
 |   |7|₅ = 5⁰ = 1         (нет пятёрок вообще)                            |
 |   |0|₅ = 0                                                              |
 +-------------------------------------------------------------------------+

 +--------------------+--------------------+-----------------------------+
 | СВОЙСТВО           | ОБЫЧНАЯ НОРМА |·|  | p-АДИЧЕСКАЯ |·|ₚ            |
 +--------------------+--------------------+-----------------------------+
 | Большие числа      | Далеко от 0        | Могут быть близко к 0!      |
 | Треугольник        | |x+y| ≤ |x|+|y|    | |x+y|ₚ ≤ max(|x|ₚ,|y|ₚ)      |
 |                    |                    | (Ультраметрика — сильнее)  |
 | Пополнение         | ℝ                  | ℚₚ (p-адические числа)       |
 | Алг. замыкание     | ℂ (dim 2 над ℝ)    | ℂₚ (бесконечномерно)        |
 +--------------------+--------------------+-----------------------------+

 Зачем это нужно:
   • Локально-глобальный принцип: уравнение имеет решение в ℚ ⟺
     имеет решение в ℝ и во всех ℚₚ (с оговорками)
   • Современная алгебраическая геометрия работает над всеми этими полями
   • Теория чисел: многие задачи проще решать "локально" в ℚₚ


 Связь с другими разделами
 +--------------------+----------------------------------------------+
 | РАЗДЕЛ             | СВЯЗЬ С ТЕОРИЕЙ ЧИСЕЛ                        |
 +--------------------+----------------------------------------------+
 | Группы             | (ℤ/nℤ)* — группа обратимых элементов         |
 |                    | Порядок = φ(n), теорема Лагранжа → Эйлер     |
 +--------------------+----------------------------------------------+
 | Кольца             | ℤ — главное кольцо идеалов                   |
 |                    | Идеал (n) = nℤ, факторкольцо = ℤₙ            |
 +--------------------+----------------------------------------------+
 | Поля               | 𝔽ₚ = ℤ/pℤ — конечное поле, расширения → коды |
 |                    | ℚₚ — локальное поле для арифм. геометрии     |
 +--------------------+----------------------------------------------+
 | Топология          | ℤ_p = lim ℤ/pⁿℤ — проективный предел          |
 |                    | (p-адические целые; не путать с 𝔽ₚ = ℤ/pℤ)   |
 |                    | Топология на ℤ_p: база = классы mod pⁿ       |
 +--------------------+----------------------------------------------+
 | Комплексный анализ | ζ(s) = Σ n⁻ˢ — дзета-функция Римана          |
 |                    | Связывает простые числа и комплексный анализ |
 +--------------------+----------------------------------------------+


 Теория Галуа — почему нет формулы для корней 5-й степени


 Квадратное уравнение решается формулой (известно ~2000 лет).
 Кубическое и четвёртой степени — тоже (Кардано, Феррари, XVI век).
 Для пятой степени Абель (1824) доказал: общей формулы нет.
 Галуа (1832) объяснил почему — и создал теорию групп.

 Ключевая идея:
   Каждому многочлену p(x) соответствует группа Gal(p) — группа
   перестановок корней, сохраняющих все алгебраические соотношения.

 Теорема Галуа:
   Многочлен разрешим в радикалах (корни выражаются через +, −, ×, ÷, √)
   тогда и только тогда, когда его группа Галуа разрешима.

 Почему это работает:
   Извлечение корня √ⁿ добавляет «слой» симметрии — циклическую группу ℤ/nℤ.
   Разрешимая группа = можно разложить в «башню» циклических подгрупп.
   Симметрическая группа S₅ — не разрешима (содержит простую группу A₅).
   Поэтому общий многочлен 5-й степени не разрешим в радикалах.

 Соответствие Галуа:

 +---------------------------+---------------------------+
 | ПОДГРУППЫ Gal(p)          | ПРОМЕЖУТОЧНЫЕ ПОЛЯ        |
 +---------------------------+---------------------------+
 | Gal(p)                    | ℚ (базовое поле)          |
 | {e} (тривиальная)         | Поле разложения           |
 | Нормальная подгруппа H ◁ G | Нормальное расширение     |
 +---------------------------+---------------------------+

 Этот биективный «словарь» между группами и полями — одна из самых
 глубоких идей математики: задача об уравнениях решается через симметрии.


===============================================================================
Таблица групп — систематика симметрий
===============================================================================

 Группа = симметрии объекта
 Задача: классифицировать группы и их связи

 Иерархия групп


                       Все группы
                      /          \
              Конечные           Бесконечные
             /        \          /           \
        Абелевы   Неабелевы   Дискретные   Непрерывные
           |          |          |         (группы Ли)
        ℤ/n, ...  Sₙ, Dₙ, ... ℤ, Fₙ, ...         |
                                      Компактные / Некомпактные
                                           |            |
                                      SO(n), SU(n)   ℝⁿ, GL(n)


Конечные группы — полная классификация существует

+-----------+---------+-----------------------------------------------+
| ГРУППА    | ПОРЯДОК | ЧТО ЭТО ГЕОМЕТРИЧЕСКИ / СВЯЗИ                 |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| {e}       | 1       | Тривиальная: "ничего не делать"               |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| ℤ/n       | n       | Циклическая: вращения n-угольника             |
|           |         | ≅ корни из 1: {1, ω, ω², ...}, ω = e^(2πi/n)  |
|           |         | Абелева. ℤ/p (p простое) — простейшие "атомы" |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| ℤ/2 × ℤ/2 | 4       | Группа Клейна: симметрии прямоугольника       |
| (четвёрка |         | не циклическая. (нет элемента порядка 4)      |
| Клейна)   |         |                                               |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Dₙ        | 2n      | Диэдральная: вращения + отражения n-угольника |
|           |         | D₃ ≅ S₃ (единственный случай)                |
|           |         | Неабелева при n ≥ 3                           |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Sₙ        | n!      | Симметрическая: все перестановки n элементов  |
|           |         | Любая конечная группа ⊂ Sₙ (теорема Кэли)     |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Aₙ        | n!/2    | Знакопеременная: чётные перестановки          |
|           |         | A₅ — простейшая неабелева простая группа      |
|           |         | A₅ ≅ симметрии икосаэдра                      |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Q₈        | 8       | Кватернионная: {±1, ±i, ±j, ±k}               |
|           |         | Неабелева, но все подгруппы нормальны         |
|           |         | Связь с вращениями в 3D (см. кватернионы)     |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+

Бесконечные дискретные:

+--------+-------------------------------------------------+
| ГРУППА | ЧТО ЭТО / СВЯЗИ                                 |
+--------+-------------------------------------------------+
|        |                                                 |
| (ℤ, +) | Целые числа: сдвиги на целое вдоль прямой       |
|        | π₁(S¹) = ℤ — фундаментальная группа окружности. |
|        | Единственная бесконечная циклическая группа     |
|        |                                                 |
+--------+-------------------------------------------------+
|        |                                                 |
| ℤⁿ     | Решётка: вершины целочисленной решётки в ℝⁿ     |
|        | π₁(Tⁿ) = ℤⁿ — фундаментальная группа n-тора     |
|        |                                                 |
+--------+-------------------------------------------------+
|        |                                                 |
| Fₙ     | Свободная на n генераторах: все слова из n букв |
|        | π₁(∨ⁿS¹) = Fₙ — букет n окружностей             |
|        | "Универсальная": любая группа — её фактор       |
|        |                                                 |
+--------+-------------------------------------------------+

Группы Ли (непрерывные) — симметрии физики:

+----------------+----+-------------------------------------------------------+
| ГРУППА         |dim | ЧТО ЭТО / ГДЕ ВСТРЕЧАЕТСЯ                             |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| U(1) ≅ S¹      |  1 | Комплексные числа |z|=1, вращения плоскости           |
|                |    | Фаза в квантовой механике, электромагнетизм           |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(2)          |  1 | Вращения плоскости (≅ U(1) как группы Ли)             |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(3)          |  3 | Вращения в ℝ³: ориентация твёрдого тела               |
|                |    | не односвязна π₁(SO(3)) = ℤ/2                         |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SU(2)          |  3 | Унитарные 2×2 с det=1, двойное накрытие SO(3)         |
|                |    | Спин в квантовой механике.                            |
|                |    | SU(2) ≅ S³ (3-сфера) — односвязна                     |
|                |    |                                                       |
|                |    | Важно для робототехники:                              |
|                |    | Кватернион q и −q задают одно и то же вращение.       |
|                |    | Поворот на 360° даёт −1, нужно 720° для возврата к 1. |
|                |    | Это не баг, это топология: π₁(SO(3)) = ℤ/2.           |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SU(3)          |  8 | Симметрия сильного взаимодействия (кварки)            |
|                |    | Стандартная модель: SU(3)×SU(2)×U(1)                  |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(3,1)        |  6 | Группа Лоренца: симметрии пространства-времени        |
|                |    | Специальная теория относительности                    |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| GL(n,ℝ)        | n² | Все обратимые n×n матрицы (det ≠ 0)                   |
|                |    | "Общая линейная группа"                               |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SL(n,ℝ)        |n²−1| Матрицы с det = 1 (сохраняют объём)                   |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+

 Ключевые связи


 1. Фундаментальные группы (топология → алгебра):
    π₁(S¹) = ℤ,  π₁(T²) = ℤ²,  π₁(∨ₙS¹) = Fₙ

 2. Накрытия (связь между группами):
    SU(2) →²:¹ SO(3),   ℝ → S¹ (exp),   SL(2,ℂ) →²:¹ SO(3,1)

 3. Классификация конечных простых групп (завершена ~1980):
    Циклические ℤ/p + Знакопеременные Aₙ (n≥5) +
    Группы лиева типа + 26 спорадических (включая "Монстра")

 4. Теорема о классификации конечных абелевых групп:
    Любая ≅ ℤ/n₁ × ℤ/n₂ × ... × ℤ/nₖ  (уникальное разложение)


Группы описывают симметрии — что можно делать с пространством. Но чтобы
говорить о непрерывности преобразований, нам нужно понятие близости.
Что значит "точки рядом"? Что значит "преобразование не рвёт пространство"?

Этим занимается топология — следующий фундаментальный взгляд на пространство.

===============================================================================
Топология — учение о близости без расстояний
===============================================================================

Если множество — это пыль, то топология — это ткань. Мы добавляем к точкам
понятие "рядом": какие точки можно считать близкими, какие — нет. Но мы
по-прежнему не знаем, насколько близко — нет чисел-расстояний.

Это минимальная структура для непрерывности. Чтобы сказать "функция непрерывна",
достаточно знать, какие точки рядом. Конкретные расстояния не нужны.

В терминах "объект—наблюдатель": топология — это свойство самого пространства,
а не наблюдателя. Два наблюдателя с разными системами координат увидят одну и
ту же топологию: те же дырки, ту же связность, те же границы. Топологические
свойства — это инварианты, не зависящие от способа описания.

Именно поэтому топология так фундаментальна: она говорит о форме объекта,
а не о том, как наблюдатель его записывает.

-------------------------------------------------------------------------------
 Топология как взгляд на пространство
-------------------------------------------------------------------------------

 Вспомним из введения: каждый раздел математики — это способ смотреть на
 пространство. Топология видит в пространстве только близость точек, но
 не расстояния между ними.

   Множество → топологическое пространство → метрическое
   (точки)            (близость)                          (расстояния)

 Топология — это "середина": больше структуры, чем у голого множества,
 но меньше, чем у метрического пространства.


 Главный пример: бублик = кружка


       Бублик (тор) кружка

          ╭--------╮                    ╭-╮
        ╭-╯  ╭--╮  ╰-╮               ╭--╯ ╰--╮
        |    |  |    |               | ╭-╮   |
        |    |  |    |               | | |   |
        ╰-╮  ╰--╯  ╭-╯               | ╰-╯   |
          ╰--------╯                 |       |
                                     ╰-------╯

   Одна дырка                      Одна дырка (ручка)

   Топологически одинаковы. Можно непрерывно деформировать одно в другое.
   Но бублик в кружку без ручки превратить нельзя — дырка исчезнет.

-------------------------------------------------------------------------------
 Зачем нужна топология
-------------------------------------------------------------------------------

 Проблема: Мы хотим говорить о "близости" и "непрерывности", но:

   • Не всегда есть расстояние (как измерить расстояние между функциями?)
   • Иногда расстояние избыточно (нам важна форма, а не размеры)
   • Разные расстояния могут давать одинаковую "близость"

 Решение: Определить "близость" напрямую, без расстояния.
          Вместо d(x,y) < ε говорим: "y в окрестности x"

 Аналогия: Карта метро vs карта города
           • Карта города: точные расстояния, масштаб
           • Карта метро: только связи между станциями
           Для навигации в метро расстояния не нужны

-------------------------------------------------------------------------------
 Что изучает топология
-------------------------------------------------------------------------------

 Геометрия: углы, длины, расстояния — метрические инварианты
 Топология: связность, дырки, число компонент — топологические инварианты

 +--------------------------------------------------------------------+
 | Топология изучает свойства, инвариантные относительно непрерывных  |
 | деформаций (гомеоморфизмов). Допустимы: растяжение, сжатие, изгиб. |
 | Недопустимы: разрыв, склеивание.                                   |
 +--------------------------------------------------------------------+

 Гомеоморфные объекты:
 +--------------------------+--------------------------------------------+
 | ОБЪЕКТЫ                  | ТОПОЛОГИЧЕСКИЙ ИНВАРИАНТ                   |
 +--------------------------+--------------------------------------------+
 | ○ ≅ □ ≅ △                | Нет дырок, π₁ = 0                          |
 | Кружка ≅ Тор             | Одна дырка, π₁ = ℤ                         |
 | O ≅ D, B ≅ 8, A ≅ R      | Классификация по числу дырок               |
 +--------------------------+--------------------------------------------+

-------------------------------------------------------------------------------
 Физический взгляд: застывший объект
-------------------------------------------------------------------------------

 Топология смотрит на пространство как на застывший объект.
 Группа смотрит как на динамическую систему.

 Четыре вопроса топологии:

   1. Сколько в объекте дырок?
      Бублик — одна. Кружка с ручкой — тоже одна. Они "одинаковы".
      Шар — ни одной. Его нельзя деформировать в бублик.

   2. Есть ли у объекта граница?
      У диска есть (окружность). У сферы нет. У ленты Мёбиуса — один край.

   3. Можно ли его разрезать, не разбив на части?
      Разрежьте тор поперёк — останется трубка (одна часть).
      Разрежьте сферу — распадётся на две шапки (две части).

   4. Можно ли на нём различить "левое" и "правое"?
      На ленте Мёбиуса — нельзя. Она неориентируема.

 Это всё инварианты — свойства, которые не меняются при деформации.

 Контраст с группами:

   Группа спрашивает:    Какие движения возможны с этим объектом?
   Топология спрашивает: Какова форма этого объекта?

   Группа: динамика движения → SE(3), SO(3), D₄
   Топология: статика формы → дырки (π₁), связность (π₀), Эйлер (χ)

   Оба дают классификацию — устанавливают, что возможно, а что нет.
   Оба отвечают на вопрос "какого типа этот объект".

 Пример связи: Фундаментальная группа π₁(X) — это группа,
 которая классифицирует петли в топологическом пространстве X.
 Топология и алгебра встречаются.

-------------------------------------------------------------------------------
 Буквы алфавита: классификация по дыркам
-------------------------------------------------------------------------------

   Без дырок (все одинаковы):    C, G, I, J, L, M, N, S, U, V, W, Z

   Одна дырка (все одинаковы):   A, D, O, P, Q, R

   Две дырки (все одинаковы):    B, 8

 Это полная классификация букв с топологической точки зрения.
 Буква "O" и буква "D" — один и тот же объект (можно деформировать).
 Буква "O" и буква "C" — разные объекты (у C нет дырки).


===============================================================================
Открытые множества — базовое понятие
===============================================================================

 Определение открытого множества:
 Множество U ⊂ X называется открытым, если для каждой точки x ∈ U
 существует окрестность x, целиком содержащаяся в U.

 Эквивалентная формулировка (для метрического пространства):
 ∀x ∈ U  ∃ε > 0:  B(x, ε) ⊂ U

 +----------------------------------------------------------+
 | x ∈ U  ⟺  x — внутренняя точка  ⟺  ∃ε > 0: B(x,ε) ⊂ U |
 +----------------------------------------------------------+

 Граничные точки: ∀ε > 0 шар B(x,ε) содержит точки как из U, так и из X\U
 Открытое множество не содержит своих граничных точек.


 Примеры на числовой прямой ℝ
 +---------------+--------------------------+--------------------------------+
 | ТИП ИНТЕРВАЛА | ВИЗУАЛИЗАЦИЯ             | СВОЙСТВО                       |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | открытый      | --○━━━━━━━━━━━━━━○--     | Открытое: у каждой точки       |
 | (0, 1)        |   0 не вход.   1 не вх.  | есть "запас" внутри            |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | закрытый      | --●━━━━━━━━━━━━━━●--     | Закрытое: содержит границу     |
 | [0, 1]        |   0 входит     1 входит  | Нет "запаса" у краёв           |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | полуоткрытый  | --●━━━━━━━━━━━━━━○--     | Ни открытое, ни закрытое       |
 | [0, 1)        |   0 входит    1 не вх.   | Такое бывает                   |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+

-------------------------------------------------------------------------------
 Открытость зависит от объемлющего пространства
-------------------------------------------------------------------------------

 Одно и то же множество может быть открытым в одном пространстве
 и не открытым в другом.

 Пример 1: Множество [0, 1)
   • В ℝ: не открытое (точка 0 граничная)
   • В [0, ∞): открытое (нет точек левее 0, так что 0 — внутренняя)

 Пример 2: Множество [0, ½)
   В пространстве X = [0, 1] с индуцированной топологией из ℝ:
   • [0, ½) открыто в X (потому что [0, ½) = X ∩ (−1, ½))
   • Но точка 0 интуитивно кажется "краем" — это ловушка

 Вывод: Говоря "открытое", всегда уточняйте — в каком пространстве

-------------------------------------------------------------------------------
 Определение метрики
-------------------------------------------------------------------------------

 Метрика на множестве X — это функция d: X × X → [0, +∞), такая что:

   +-------------------------------------------------------------+
   | (M1)  d(x,y) = 0  ⟺  x = y       (тождество неразличимых)   |
   | (M2)  d(x,y) = d(y,x)             (симметрия)               |
   | (M3)  d(x,z) ≤ d(x,y) + d(y,z)   (неравенство треугольника) |
   +-------------------------------------------------------------+

 Пара (X, d) называется метрическим пространством.

 Примеры метрик:
   +---------------------+-----------------------------------------------+
   | ПРОСТРАНСТВО        | МЕТРИКА                                       |
   +---------------------+-----------------------------------------------+
   | ℝ                   | d(x,y) = |x − y|                              |
   | ℝⁿ (евклидова)      | d(x,y) = √(Σᵢ(xᵢ−yᵢ)²)                        |
   | ℝⁿ (манхэттенская)  | d(x,y) = Σᵢ|xᵢ−yᵢ|                            |
   | ℝⁿ (sup-метрика)    | d(x,y) = maxᵢ|xᵢ−yᵢ|                          |
   | C[a,b] (функции)    | d(f,g) = max_{x∈[a,b]}|f(x)−g(x)|             |
   | Дискретная          | d(x,y) = 0 если x=y, иначе 1                  |
   +---------------------+-----------------------------------------------+

 Зачем метрика:
   • Определяет понятие "близости" количественно
   • Порождает топологию (открытые множества через шары)
   • Позволяет говорить о сходимости: xₙ → x ⟺ d(xₙ,x) → 0

-------------------------------------------------------------------------------
 Формальное определение открытого множества (через метрику)
-------------------------------------------------------------------------------

 Пусть (X, d) — метрическое пространство.

 Открытый шар: B(x, ε) = {y : d(x,y) < ε}
               (все точки ближе ε к центру x)

 Множество U называется открытым, если:

   +--------------------------------------------------------+
   | ∀x ∈ U  ∃ε > 0:  B(x, ε) ⊆ U                        |
   |                                                        |
   | "Для каждой точки x из U существует шар с центром в x, |
   | целиком лежащий в U"                                   |
   +--------------------------------------------------------+

 Визуально:

        U — открытое                      V — не открытое
     ╭-----------------╮               ╭-----------------╮
     |    ╭---╮        |               |            ●----+ ← точка на
     |    | ● | шар    |               |           нет   |   границе,
     |    ╰---╯ внутри |               |           шара  |   шар не
     |                 |               |                 |   поместится
     ╰-----------------╯               ╰-----------------╯

-------------------------------------------------------------------------------
 Закрытые множества
-------------------------------------------------------------------------------

 Закрытое множество = дополнение открытого

   F закрыто  ⟺  X \ F открыто

 Эквивалентно: F содержит все свои предельные точки.
               (Если последовательность из F сходится, предел тоже в F)

 Примеры на ℝ:

   [0, 1]     закрытое    (ℝ \ [0,1] = (−∞,0) ∪ (1,+∞) — открытое)
   {0}        закрытое    (одна точка — вырожденный случай)
   [0, +∞)    закрытое    (полупрямая с включённым концом)
   ℚ          не закрытое (√2 — предельная точка, но √2 ∉ ℚ)

 Внимание: "Не открытое" ≠ "Закрытое".

   [0, 1)  — не открытое и не закрытое
   ∅       — и открытое, и закрытое (единственные такие: ∅ и всё X)
   ℝ       — и открытое, и закрытое

-------------------------------------------------------------------------------
 Граница, внутренность, замыкание
-------------------------------------------------------------------------------

 Для любого множества A ⊆ X:

   Int(A) = внутренность = наибольшее открытое подмножество A
          = {x ∈ A : ∃ε > 0, B(x,ε) ⊆ A}

   Cl(A)  = замыкание = наименьшее закрытое надмножество A
          = A ∪ {все предельные точки A}

   ∂A     = граница = Cl(A) \ Int(A)
          = точки, в любой окрестности которых есть и A, и не-A

 Пример: A = (0, 1]

     -------○━━━━━━━━━━━━━━━━━━━━━━━━━●-------
            0                         1

   Int(A) = (0, 1)     — убрали точку 1 (она на границе)
   Cl(A)  = [0, 1]     — добавили точку 0 (предельная)
   ∂A     = {0, 1}     — две граничные точки

 Связь:
   A открыто  ⟺  A = Int(A)  ⟺  A не содержит своей границы
   A закрыто  ⟺  A = Cl(A)   ⟺  A содержит свою границу


===============================================================================
Топологическое пространство — абстракция
===============================================================================

 Идея: забыть про метрику, оставить только "открытые множества"


 Наблюдение: Все свойства непрерывности можно выразить через открытые
             множества, не упоминая расстояние.

 Идея: Что если напрямую задать, какие множества считать "открытыми"?
       Не выводить из метрики, а просто объявить.

 Нужны правила, чтобы "открытые" множества вели себя разумно.

-------------------------------------------------------------------------------
 Определение топологии
-------------------------------------------------------------------------------

 Топология на множестве X — это семейство τ ⊆ P(X) подмножеств X,
 удовлетворяющее трём аксиомам:

   +--------------------------------------------------------+
   | (T1)  ∅ ∈ τ  и  X ∈ τ                                  |
   | Пустое и всё пространство — открыты                    |
   |                                                        |
   | (T2)  U₁, U₂ ∈ τ  ⇒  U₁ ∩ U₂ ∈ τ                       |
   | Пересечение двух открытых — открыто                    |
   | (по индукции: конечное пересечение открытых — открыто) |
   |                                                        |
   | (T3)  {Uᵢ}ᵢ∈I ⊆ τ  ⇒  ⋃ᵢ∈I Uᵢ ∈ τ                      |
   | Объединение любого семейства открытых — открыто        |
   | (даже бесконечного, даже несчётного)                  |
   +--------------------------------------------------------+

 Пара (X, τ) называется топологическим пространством.
 Элементы τ называются открытыми множествами.


 Почему такие аксиомы

 Эти аксиомы выведены из свойств открытых множеств в метрическом пространстве:

 (T1) Очевидно: везде есть "запас", нигде нет "запаса"

 (T2) Если в U₁ есть шар радиуса ε₁, а в U₂ — радиуса ε₂,
      то в пересечении есть шар радиуса min(ε₁, ε₂)

      Почему только конечные? При бесконечном пересечении min может быть 0.

      Пример: ⋂ₙ (−1/n, 1/n) = {0} — одна точка, не открытое множество.

 (T3) Если точка в каком-то Uᵢ, у неё есть шар в этом Uᵢ,
      значит и в объединении есть шар. Работает для любого семейства.

-------------------------------------------------------------------------------
 Примеры топологий
-------------------------------------------------------------------------------

 Пусть X = {a, b, c} — три точки. Сравним топологии:

 +----------------+--------------------------+--------------------+
 | ТОПОЛОГИЯ      | ОТКРЫТЫЕ МНОЖЕСТВА       | СМЫСЛ              |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Дискретная     | Все подмножества:        | Точки "далеко"     |
 | (максимальная) | ∅,{a},{b},{c},{a,b},     | друг от друга,     |
 |                | {a,c},{b,c},{a,b,c}      | каждая изолирована |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Антидискретная | Только ∅ и X:            | Точки "слиплись",  |
 | (минимальная)  | {∅, {a,b,c}}             | неразличимы        |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Промежуточная  | {∅, {a}, {a,b}, {a,b,c}} | a "открыта",       |
 | (пример)       |                          | c "закрыта"        |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+

-------------------------------------------------------------------------------
 Стандартная топология на ℝ
-------------------------------------------------------------------------------

 τ = {U ⊆ ℝ : ∀x ∈ U ∃ε > 0: (x−ε, x+ε) ⊆ U}

 Открытые множества = те, где каждая точка окружена интервалом.

 База топологии:

   Не нужно описывать все открытые множества.
   Достаточно задать базу — набор "кирпичиков", из которых
   объединениями получаются все остальные открытые.

   Для ℝ: база = все открытые интервалы (a, b)
   Для ℝⁿ: база = все открытые шары B(x, ε)

 Важно: Стандартная топология на ℝ порождается метрикой d(x,y) = |x−y|
        Но можно задать другие топологии на том же ℝ.


 Метрика → Топология (но не наоборот)


 Любая метрика d на X порождает топологию:
   τ_d = {U : ∀x ∈ U ∃ε > 0: B_d(x,ε) ⊆ U}

 Но не любая топология порождается какой-то метрикой.
 (Такие топологии называются "метризуемыми")

 Пример неметризуемой топологии:
   Антидискретная на X с |X| > 1: нельзя отделить точки шарами.

 Разные метрики могут давать одну топологию:

   На ℝ²:  d₁(x,y) = |x₁−y₁| + |x₂−y₂|        (манхэттенская)
           d₂(x,y) = √((x₁−y₁)² + (x₂−y₂)²)  (евклидова)
           d∞(x,y) = max(|x₁−y₁|, |x₂−y₂|)   (чебышёвская)

   Шары разной формы:  ◇ (d₁)    ○ (d₂)    □ (d∞)
   Но топология одна. Одни и те же множества открыты.

      ◇           ○           □
     ╱ ╲         ╱ ╲         +-+
    ╱   ╲       |   |        | |
    ╲   ╱       |   |        | |
     ╲ ╱         ╲ ╱         +-+

   Топологически эквивалентны (гомеоморфны как шары)

-------------------------------------------------------------------------------
 Аксиомы отделимости — насколько "хорошо" пространство
-------------------------------------------------------------------------------

 Проблема: Не все топологические пространства "хорошие".
 В антидискретной топологии две разные точки неразличимы.

 Аксиомы отделимости задают иерархию "хороших" пространств:

 +---------+---------------------------------------------------------------+
 | АКСИОМА | УСЛОВИЕ                                                       |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₀      | Для любых x ≠ y найдётся окрестность одной из точек,          |
 |(Колмог.)| не содержащая другую.                                         |
 |         | (Хоть как-то можно различить)                                 |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₁      | Для любых x ≠ y найдётся окрестность x, не содержащая y,      |
 |(Фреше)  | и окрестность y, не содержащая x.                             |
 |         | Эквивалентно: все одноточечные множества {x} замкнуты.        |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₂      | Для любых x ≠ y найдутся непересекающиеся окрестности:        |
 |(Хаусд.) | U ∋ x, V ∋ y, U ∩ V = ∅                                       |
 |         |                                                               |
 |         |     x           y                                             |
 |         |    (U)         (V)        ← U и V не пересекаются             |
 |         |   ╭---╮       ╭---╮                                           |
 |         |   | ● |       | ● |                                           |
 |         |   ╰---╯       ╰---╯                                           |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₃      | T₁ + для точки x и замкнутого F ∌ x найдутся                  |
 |(регул.) | непересекающиеся окрестности x и F.                           |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₄      | T₁ + для любых непересекающихся замкнутых F, G                |
 |(норм.)  | найдутся непересекающиеся окрестности.                        |
 |         |                                                               |
 +---------+---------------------------------------------------------------+

 Иерархия:

   T₄ (нормальное) ⊂ T₃ (регулярное) ⊂ T₂ (хаусдорфово) ⊂ T₁ ⊂ T₀

 Почему T₂ (Хаусдорфовость) важна:

   1. Единственность пределов:
      В хаусдорфовом пространстве последовательность имеет
      не более одного предела. (Без T₂ предел может быть неединственным)

   2. Компакты замкнуты:
      В хаусдорфовом пространстве компактное подмножество замкнуто.

   3. Практика:
      Почти все пространства в анализе и геометрии — хаусдорфовы.
      ℝⁿ, многообразия, метрические пространства — все T₂.

 Примеры:

   ✓ ℝⁿ с обычной топологией — T₄ (нормальное)
   ✓ Любое метрическое пространство — T₄
   ✗ Антидискретная топология (|X| > 1) — даже не T₀
   ✗ Прямая с удвоенной точкой — T₁, но не T₂

 Лемма Урысона (следствие T₄):
   В нормальном пространстве для любых непересекающихся замкнутых
   F и G существует непрерывная f: X → [0,1] с f|_F = 0 и f|_G = 1.
   (Можно "гладко" разделить множества функцией)


===============================================================================
Непрерывные отображения — сохранение близости
===============================================================================

-------------------------------------------------------------------------------
 Определение непрерывности
-------------------------------------------------------------------------------

 Пусть (X, τ_X) и (Y, τ_Y) — топологические пространства.

 +-----------------------------------------------------------+
 | Определение: f: X → Y непрерывно ⟺ ∀V ∈ τ_Y: f⁻¹(V) ∈ τ_X |
 | (прообраз открытого множества открыт)                     |
 +-----------------------------------------------------------+

 Здесь f⁻¹(V) = {x ∈ X : f(x) ∈ V} — прообраз (не обратная функция).

           Прообраз определён всегда, даже если f не обратима.

 Визуализация:

      X                           Y
   +-----------+    f        +-----------+
   | ╭------╮  |   ---→      |   ╭---╮   |
   | |f⁻¹(V)|  |             |   | V |   |   V открыто в Y
   | ╰------╯  |             |   ╰---╯   |
   +-----------+             +-----------+
     открыто?                  открыто ✓

   f непрерывно ⟺ для любого открытого V, его прообраз f⁻¹(V) открыт

-------------------------------------------------------------------------------
 Связь с ε-δ определением
-------------------------------------------------------------------------------

 Два определения — одна идея (для метрических пространств эквивалентны):
 +----------------+----------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ    | ФОРМУЛИРОВКА                                       |
 +----------------+----------------------------------------------------+
 | ε-δ (анализ)   | ∀ε>0 ∃δ>0: d(x,x₀)<δ ⇒ d(f(x),f(x₀))<ε |
 |                | "образ сколь угодно близок при близком аргументе"  |
 +----------------+----------------------------------------------------+
 | Топологическое | Прообраз открытого множества открыт                |
 |                | "окрестность образа ← окрестность аргумента"       |
 +----------------+----------------------------------------------------+

 Зачем топологическое? Работает без метрики.


 Примеры и контрпримеры
 +---------------------+-----------------------+-------------------------+
 | ФУНКЦИЯ             | НЕПРЕРЫВНА?           | ПОЧЕМУ                  |
 +---------------------+-----------------------+-------------------------+
 | f(x) = x²           | ДА                    | Прообраз (a,b) открыт   |
 | f(x) = sin(x)       | ДА                    | Гладкая → непрерывная   |
 | f(x) = |x|          | ДА                    | В каждой точке непр.    |
 | f(x) = ⌊x⌋          | нет                   | Прообраз не открыт      |
 | f(x) = θ(x) (Хеви) | НЕТ                   | Разрыв в x=0            |
 +---------------------+-----------------------+-------------------------+

   Проблема в точке 0: скачок.


===============================================================================
Гомеоморфизм — топологическая эквивалентность
===============================================================================

 Определение:
 Гомеоморфизм f: X → Y — это биекция, непрерывная в обе стороны:

   1. f — биекция (взаимно однозначное соответствие)
   2. f — непрерывна
   3. f⁻¹ — тоже непрерывна

 Если существует гомеоморфизм X → Y, пишем X ≅ Y ("X гомеоморфно Y")

 Смысл: X и Y имеют одинаковую топологическую структуру.
        Различаются только "именами" точек.

-------------------------------------------------------------------------------
 Физическая интерпретация: очень вязкое течение
-------------------------------------------------------------------------------

 Представьте объект из очень вязкой жидкости (тесто, пластилин, смола).
 Гомеоморфизм — это медленная деформация, при которой:

   • Материал течёт, меняет форму
   • Но не рвётся (нельзя создать дырку)
   • и не склеивается (нельзя заделать дырку)

 Бублик → кружка: тесто "перетекает", дырка сохраняется
 Бублик → шар: невозможно без разрыва (дырка должна исчезнуть)

 Эта интуиция связывает топологию с гидродинамикой:
   • Гомеоморфизм = итог бесконечно медленного несжимаемого течения
   • Топологические инварианты = то, что сохраняется при любом течении
   • Диффеоморфизм = гладкое течение (без "складок")


 Зачем нужна непрерывность f⁻¹?

 Непрерывная биекция не обязана быть гомеоморфизмом.

 Контрпример:

   X = [0, 2π)  с обычной топологией (полуинтервал)
   Y = S¹      окружность
   f(t) = (cos t, sin t)

      [0------------2π)         f          ╭------╮
       ●                       ---→       ╱   ●    ╲
       |                                 |    ↑     |
       +-→ растягивается на окружность   |  начало  |
                                          ╲        ╱
                                           ╰------╯

   f — биекция ✓
   f — непрерывна ✓
   f⁻¹ — не непрерывна ✗

   Почему? При обходе окружности, приближаясь к начальной точке,
   f⁻¹ делает скачок: .→ 2π−ε → 0 (разрыв)

   [0, 2π) и S¹ не гомеоморфны, хотя есть непрерывная биекция.

-------------------------------------------------------------------------------
 Примеры гомеоморфизмов
-------------------------------------------------------------------------------

 (0, 1) ≅ ℝ        через f(x) = tan(π(x − 1/2))
                   Открытый интервал ↔ вся прямая

 (0, 1) ≅ (0, ∞)   через f(x) = x/(1−x)

 Круг ≅ Квадрат    "Надуваем" квадрат до круга

 ℝ² \ {0} ≅ S¹×ℝ   Плоскость без начала ↔ Цилиндр
                   (полярные координаты: (r,θ) ↦ (θ, ln r))

 Не гомеоморфны:

 [0,1] ≇ (0,1)     Замкнутый интервал ≠ открытый (разное число концов)
 S¹ ≇ [0,1]        Окружность ≠ отрезок (у отрезка есть концы)
 S² ≇ T²           Сфера ≠ тор (разное число дырок)

-------------------------------------------------------------------------------
 Иерархия эквивалентностей
-------------------------------------------------------------------------------

 Изометрия ⊂ Диффеоморфизм ⊂ Гомеоморфизм ⊂ Гомотопическая эквивалентность

+-----------------+-------------------+------------------------------+
| ЭКВИВАЛЕНТНОСТЬ | ЧТО СОХРАНЯЕТ     | КВАДРАТ                      |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Изометрия       | Расстояния        | ≅ только себе/повороту       |
| (самое строгое) |                   |                              |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Диффеоморфизм   | Гладкую структуру | ≅ кругу (гладко деформ.)     |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Гомеоморфизм    | Топологию         | ≅ кругу (непрерывно деформ.) |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Гомотоп. эквив. | "Форму дырок"     | ≃ точке (можно стянуть)     |
| (самое слабое)  |                   |                              |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+

===============================================================================
Связность — "одним куском"
===============================================================================

 Связность — неформальное описание


 Связное пространство: не представимо как объединение двух непересекающихся
                       непустых открытых множеств

   Связное: не связное:
   ╭-----------╮               ╭-------╮   ╭-------╮
   |           |               |       |   |       |
   |     ●     |               |   ●   |   |   ●   |
   |           |               |       |   |       |
   ╰-----------╯               ╰-------╯   ╰-------╯
   один кусок                  два отдельных куска


 Формальное определение

 Топологическое пространство X называется связным, если
 не существует разбиения X = U ∪ V, где:

   • U, V ≠ ∅           (оба непусты)
   • U ∩ V = ∅          (не пересекаются)
   • U, V ∈ τ           (оба открыты)

 Эквивалентно: единственные множества, которые одновременно
               открыты и закрыты — это ∅ и X.

 Смысл: Нельзя "разрезать" X на два открытых куска.
        Между любыми двумя точками есть "топологический путь".


 Примеры

 Связные:

   [0, 1]      Любое разбиение на открытые невозможно
   (0, 1)      Тоже связно
   ℝ           Связно
   ℝⁿ          Связно для любого n
   S¹, S², Sⁿ  Все сферы связны
   Диск, шар   Связны

 Не связные:

   (0,1) ∪ (2,3)   Два интервала = два куска
                   U = (0,1), V = (2,3) — разбиение

   ℚ               Рациональные числа не связны
                   Разбиение: {q < √2} и {q > √2}
                   (оба открыты в индуцированной топологии)

   ℝ \ {0}         Прямая без нуля = два луча
                   U = (−∞, 0), V = (0, +∞)

   {0, 1}          Две изолированные точки (дискретная топология)
   (дискретная)    U = {0}, V = {1} — оба открыты

-------------------------------------------------------------------------------
 Линейная связность (сильнее)
-------------------------------------------------------------------------------

 X линейно связно, если любые две точки можно соединить путём:

   ∀x, y ∈ X  ∃γ: [0,1] → X непрерывная,  γ(0) = x,  γ(1) = y

 Связь:
   Линейно связное ⇒ Связное (всегда)
   Связное ⇒ Линейно связное (для "хороших" пространств, но не всегда)

 Контрпример (топологическая синусоида):

   A = {(x, sin(1/x)) : x > 0} ∪ {(0, y) : −1 ≤ y ≤ 1}

       |╭╮   ╭╮   ╭╮
   ----+╯╰---╯╰---╯╰---  ← бесконечно осциллирует
       |                   при x → 0
       |
     вертикальный
     отрезок

   Это связно (в топологическом смысле)
   Но не линейно связно: нет непрерывного пути от синусоиды к отрезку

-------------------------------------------------------------------------------
 Компоненты связности
-------------------------------------------------------------------------------

 Компонента связности точки x — максимальное связное подмножество,
 содержащее x.

 Свойства:
   • X разбивается на непересекающиеся компоненты связности
   • Компонент может быть конечное число, счётное или несчётное

 Примеры:
   ℝ \ {0}       — две компоненты: (−∞, 0) и (0, +∞)
   ℤ (дискр.)   — счётно много компонент: каждая точка отдельно
   Канторово мн. — несчётно много компонент (каждая точка — компонента)

 H₀ в гомологиях считает компоненты связности:
   H₀(X) = ℤᵏ, где k = число компонент


===============================================================================
Компактность — конечность в бесконечности
===============================================================================

-------------------------------------------------------------------------------
 Зачем нужна компактность
-------------------------------------------------------------------------------

 Проблема: На бесконечном или незамкнутом множестве многие теоремы ломаются.

   • f(x) = x на (0, +∞): нет максимума и минимума
   • f(x) = 1/x на (0, 1): непрерывна, но неограничена
   • Последовательность в ℝ может "убежать" на бесконечность

 Решение: Компактность — свойство, гарантирующее "конечно-подобное"
          поведение на бесконечных множествах.

 Аналогия с теплотехникой:
   Компактное пространство — как ограниченная система без "утечек".
   Энергия не может "убежать на бесконечность".

-------------------------------------------------------------------------------
 Определение компактности (через покрытия)
-------------------------------------------------------------------------------

 Покрытие множества X — семейство множеств {Uᵢ}ᵢ∈I такое, что X ⊆ ⋃ᵢ Uᵢ
 Открытое покрытие — покрытие открытыми множествами.

 Определение:

   +--------------------------------------------------------------+
   | X компактно, если из любого открытого покрытия можно выбрать |
   | конечное подпокрытие.                                        |
   |                                                              |
   | ∀{Uᵢ}ᵢ∈I открытое покрытие X                                 |
   | ∃ конечное J ⊂ I:  X ⊆ ⋃ⱼ∈J Uⱼ                               |
   +--------------------------------------------------------------+

 Компактность: любое открытое покрытие имеет конечное подпокрытие
           Как бы мелко мы его ни покрывали, достаточно конечного числа.


 Пример: Почему [0,1] компактен, а (0,1) нет


 (0, 1) не компактен:

   Покрытие: Uₙ = (1/n, 1) для n = 2, 3, 4, ...

     U₂ = (1/2, 1)     +━━━━━━━━━━━━━+
     U₃ = (1/3, 1)   +━━━━━━━━━━━━━━━━+
     U₄ = (1/4, 1)  +━━━━━━━━━━━━━━━━━━+
     ⋮             ⋮

   ⋃ₙ Uₙ = (0, 1) — покрытие ✓

   Но любое конечное подпокрытие U_{n₁}, ..., U_{nₖ}
   покрывает только (1/N, 1), где N = max(n₁,...,nₖ).
   Точки (0, 1/N) не покрыты. ✗

 [0, 1] компактен:

   То же покрытие {(1/n, 1)} не покрывает [0,1] — не содержит 0.
   Любое покрытие [0,1] должно содержать окрестность 0 и окрестность 1.
   Это "замыкает" конструкцию, позволяя выбрать конечное подпокрытие.

   (Формальное доказательство: теорема Гейне-Бореля)

 Интуиция: (0,1) некомпактен не потому что "большой" — он ограничен.
   Проблема в отсутствии краёв: покрытия могут "утекать" к границе,
   требуя бесконечно много множеств, чтобы "догнать" точки у 0.
   Замкнутость добавляет края, к которым покрытия "прилипают".

-------------------------------------------------------------------------------
 Теорема Гейне-Бореля (для ℝⁿ)
-------------------------------------------------------------------------------

   +-----------------------------------------------+
   | В ℝⁿ: X компактно  ⟺  X замкнуто и ограничено |
   +-----------------------------------------------+

 Внимание: Это верно только для ℝⁿ. В общем топологическом пространстве
           замкнутость + ограниченность не гарантирует компактность.

 Контрпример (критично для функционального анализа):
   Единичный шар B = {f ∈ L²: ‖f‖ ≤ 1} в бесконечномерном L²:
     • Замкнут? Да
     • Ограничен? Да
     • Компактен? Нет
   Последовательность eₙ(x) = sin(nπx) ограничена, но не имеет
   сходящейся подпоследовательности в L².

   Это ломает интуицию из ℝⁿ. В бесконечномерных пространствах
   нужна слабая компактность или дополнительные условия.

   Важно: Хотя шар B некомпактен в сильной (нормовой) топологии,
   он слабо компактен (теорема Банаха-Алаоглу). Это критически важно
   для вариационного исчисления: минимум энергии существует именно
   благодаря слабой компактности.

 Почему это катастрофа для инженера:

   Теорема Вейерштрасса: "непрерывная функция на компакте достигает min".
   Но если пространство некомпактно — минимум может не существовать.

   В бесконечномерных задачах оптимизации (вариационное исчисление,
   обучение нейросетей) это означает:
     • Мы спускаемся по "горке", но дна нет
     • Минимизирующая последовательность fₙ "утекает на бесконечность"
     • Функция становится всё тоньше и выше, переставая быть функцией

   Решение: добавить регуляризацию (∫|f'|² ≤ C), которая делает
   допустимое множество компактным в слабой топологии.

 Примеры в ℝⁿ:

   +--------------------+-----------+-------------+------------------+
   | МНОЖЕСТВО          | ЗАМКНУТО? | ОГРАНИЧЕНО? | КОМПАКТНО?       |
   +--------------------+-----------+-------------+------------------+
   | [0, 1]             | Да        | Да          | Да               |
   | (0, 1)             | Нет       | Да          | Нет              |
   | [0, +∞)            | Да        | Нет         | Нет              |
   | ℕ = {1, 2, 3, ...} | Да        | Нет         | Нет              |
   | Единичный шар D²   | Да        | Да          | Да               |
   | Сфера S²           | Да        | Да          | Да               |
   | ℝⁿ                 | Да        | Нет         | Нет              |
   | {1/n : n ∈ ℕ}      | Нет       | Да          | Нет              |
   | {0}∪{1/n : n ∈ ℕ}  | Да        | Да          | Да (добавили 0!) |
   +--------------------+-----------+-------------+------------------+


 Свойства компактных пространств
+------------------------+------------------------------------+
| СВОЙСТВО               | ФОРМУЛИРОВКА                       |
+------------------------+------------------------------------+
|                        |                                    |
| Образ компакта         | f: X → Y непрерывна, X компактно   |
|                        | ⇒ f(X) компактно                   |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Теорема Вейерштрасса   | f: X → ℝ непрерывна, X компактно   |
| (Ключ к оптимизации)   | ⇒ f достигает max и min            |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Замкнутое ⊂ компакта   | X компактно, F ⊆ X замкнуто        |
|                        | ⇒ F компактно                      |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Компакт в хаусдорфовом | Y хаусдорфово, X ⊆ Y компактно     |
|                        | ⇒ X замкнуто в Y                   |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Теорема Тихонова       | X, Y компактны ⇒ X × Y компактно   |
|                        | (работает для любого произведения) |
|                        |                                    |
+------------------------+------------------------------------+

 Применения компактности
+------------------+------------------------------------------------+
| ОБЛАСТЬ          | КАК ИСПОЛЬЗУЕТСЯ                               |
+------------------+------------------------------------------------+
| Оптимизация      | На компакте экстремум существует (Вейерштрасс) |
+------------------+------------------------------------------------+
| Численные методы | Сходимость через подпоследовательности         |
+------------------+------------------------------------------------+
| Физика           | Компактное фазовое пр-во = замкнутая система   |
+------------------+------------------------------------------------+

 Термодинамика:
   Конечный резервуар (компактная область) vs бесконечная среда.
   Свойства решений уравнения теплопроводности существенно зависят
   от компактности области.


===============================================================================
Топологические инварианты — как различать пространства
===============================================================================

 Проблема: как доказать, что пространства разные?


 Гомеоморфизм показывает, что пространства одинаковы.
 Но как доказать, что гомеоморфизма не существует?

 Идея: Сопоставить пространству число или группу (инвариант).
       Если инварианты разные — пространства точно разные.

 Инвариант = свойство, сохраняющееся при гомеоморфизмах.


 Простые инварианты
+-------------------------+---------------------------------------------------+
| ИНВАРИАНТ               | ПРИМЕНЕНИЕ                                        |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Число точек |X|         | |X| ≠ |Y| ⇒ X ≇ Y (для конечных)                  |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Связность               | X связно, Y нет ⇒ X ≇ Y                           |
|                         | Пример: (0,1) ≇ (0,1)∪(2,3)                       |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Компактность            | X компактно, Y нет ⇒ X ≇ Y                        |
|                         | Пример: [0,1] ≇ (0,1)                             |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Число компонент π₀      | π₀(X) ≠ π₀(Y) ⇒ X ≇ Y                             |
|                         |                                                   |
+-------------------------+---------------------------------------------------+

 Проблема: Эти инварианты слишком грубые.
 S¹ и S² — обе связны и компактны, но разные. Нужны более тонкие инварианты.


 Главные (тонкие) инварианты
+---------------------+--------------------------------------+
| ИНВАРИАНТ           | ЧТО ИЗМЕРЯЕТ                         |
+---------------------+--------------------------------------+
| π₁ (фунд. группа)   | "Группа петель" — различает S¹ от S² |
| χ (Эйлерова хар-ка) | V − E + F — число "сетки"            |
| Hₙ (гомологии)      | "Дырки" разных размерностей          |
+---------------------+--------------------------------------+

-------------------------------------------------------------------------------
 Фундаментальная группа π₁ — подробное объяснение
-------------------------------------------------------------------------------

 Интуиция: Представьте, что вы привязали верёвку к точке и пошли гулять
 по пространству. Вернулись в начало. Можно ли стянуть верёвку в точку,
 не разрывая и не выходя из пространства?

   На плоскости: на плоскости с дыркой:

      ╭-----╮                      ╭-----╮
     ╱       ╲                    ╱   ●   ╲   ← дырка
    |    ●    |                  |  ╱   ╲  |
    |   start |                  | |     | |
     ╲       ╱                    ╲ ╲   ╱ ╱
      ╰-----╯                      ╰-----╯

   Можно стянуть → петля        Нельзя стянуть → петля
   "тривиальная"                "нетривиальная"


 Формальное определение:

 Петля в X с базовой точкой x₀ — это непрерывное отображение
   γ: [0,1] → X,  где γ(0) = γ(1) = x₀

 Две петли γ и δ называются гомотопными (γ ≃ δ), если одну можно
 непрерывно деформировать в другую, не разрывая и не отпуская x₀.

 Гомотопия = семейство петель H(s,t), где:
   • H(0,t) = γ(t)  — начинаем с γ
   • H(1,t) = δ(t)  — заканчиваем на δ
   • H(s,0) = H(s,1) = x₀  — базовая точка зафиксирована

 Фундаментальная группа:

   π₁(X, x₀) = {петли в X из x₀} / {гомотопия}
             = множество классов гомотопных петель

 Групповая операция:

   [γ] · [δ] = [γ * δ]

   где γ * δ = "сначала пройти γ, потом δ":

         ⎧ γ(2t)      если 0 ≤ t ≤ ½
   (γ*δ)(t) = ⎨
         ⎩ δ(2t−1)    если ½ ≤ t ≤ 1

   • Нейтральный элемент: константная петля [x₀]
   • Обратный элемент: [γ]⁻¹ = [γ⁻¹], где γ⁻¹(t) = γ(1−t)


 Примеры фундаментальных групп
+---------------------+-------------------+-----------------------------------+
| ПРОСТРАНСТВО        | π₁                | ОБЪЯСНЕНИЕ                        |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝⁿ (любое n)        | {e} (тривиальная) | Любую петлю можно стянуть в точку |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| Sⁿ при n ≥ 2        | {e} (тривиальная) | На сфере (n≥2) любая петля        |
| (сфера)             |                   | стягивается (нет "дырок")         |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| S¹ (окружность)     | ℤ                 | Петли классифицируются числом     |
|                     |                   | оборотов: ..., −2, −1, 0, 1, 2,...|
|                     |                   | n>0: против часовой             |
|                     |                   | n<0: по часовой                 |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| T² (тор = бублик)   | ℤ × ℤ             | Две независимых петли:            |
|                     |                   | "вокруг дырки" и "сквозь дырку"   |
|                     |                   |                                   |
|                     |                   |   ╭----------╮                    |
|                     |                   |  ╱  ╭----╮    ╲                   |
|                     |                   | |  | ●→→→|     |  ← петля a       |
|                     |                   | |   ╰----╯     |                  |
|                     |                   |  ╲    ↑       ╱   ← петля b       |
|                     |                   |   ╰----------╯                    |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝ² \ {0}            | ℤ                 | Плоскость без точки ≃ окружность  |
| (плоскость без 0)   |                   | Петли = обороты вокруг дырки      |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| "Восьмёрка"         | F₂                | Свободная группа от 2 образующих  |
| S¹ ∨ S¹             | (свободная)       | Некоммутативна: ab ≠ ba.          |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝP² (проективная    | ℤ/2               | Есть петля, не стягиваемая,       |
| плоскость)          |                   | но дважды пройденная — стягивается|
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+

-------------------------------------------------------------------------------
 Почему π₁(S¹) = ℤ — подробное объяснение
-------------------------------------------------------------------------------

 Окружность S¹ = {e^{iθ} : θ ∈ [0, 2π)} ⊂ ℂ
 Базовая точка: x₀ = 1 (при θ = 0)

 Петля с n оборотами: γₙ(t) = e^{2πint}, t ∈ [0,1]

   n = 0:  γ₀(t) = 1 (стоим на месте)
   n = 1:  γ₁(t) = e^{2πit} (один оборот против часовой)
   n = −1: γ₋₁(t) = e^{−2πit} (один оборот по часовой)
   n = 2:  γ₂(t) = e^{4πit} (два оборота против часовой)

 Теорема: γₙ ≃ γₘ ⟺ n = m

 Интуитивно: нельзя "размотать" оборот, не разрывая петлю.

 Групповая операция: [γₙ] · [γₘ] = [γₙ₊ₘ]

 Это в точности группа (ℤ, +)!

 Следствие: S¹ ≇ S² (сфера)
   π₁(S¹) = ℤ ≠ {e} = π₁(S²)
   Разные группы ⇒ пространства не гомеоморфны.

-------------------------------------------------------------------------------
 Применения фундаментальной группы
-------------------------------------------------------------------------------

 1. Топология: Различение пространств
    π₁(X) ≠ π₁(Y) ⇒ X ≇ Y

 2. Теорема Борсука-Улама:
    На поверхности Земли есть две антиподальные точки с одинаковыми
    температурой и давлением. (Следует из π₁(ℝP²) = ℤ/2)

 3. Теория узлов:
    π₁(ℝ³ \ узел) различает узлы (какие узлы можно развязать?)

 4. Физика:
    • Дефекты в кристаллах классифицируются π₁
    • Вихри в сверхтекучем гелии: π₁(пр-во параметров) = ℤ
    • Магнитные монополи: π₂(пр-во параметров)

 5. Покрытия:
    Накрывающие пространства ↔ подгруппы π₁
    Универсальное накрытие ↔ π₁ = {e}

-------------------------------------------------------------------------------
 Высшие гомотопические группы πₙ
-------------------------------------------------------------------------------

 π₁ измеряет "дырки для петель". А что если использовать сферы?

   π₁(X) — классы отображений S¹ → X   (петли)
   π₂(X) — классы отображений S² → X   (сферы)
   πₙ(X) — классы отображений Sⁿ → X   (n-сферы)

 Примеры:
 +------------+----------------------------------------+
 | ГРУППА     | ЗНАЧЕНИЕ                               |
 +------------+----------------------------------------+
 | π₁(S¹) = ℤ | Петля может обойти окружность n раз    |
 | π₁(S²) = 0 | На сфере любая петля стягивается       |
 | π₂(S²) = ℤ | S² может "обернуть" S² целое число раз |
 | π₃(S²) = ℤ | Расслоение Хопфа. (неожиданно ≠ 0)     |
 | πₙ(Sⁿ) = ℤ | Тождественное отображение генерирует   |
 +------------+----------------------------------------+

 Глубокий факт: π₃(S²) = ℤ ≠ 0

   Это значит, что 3-сферу можно нетривиально отобразить на 2-сферу.
   Это отображение называется расслоение Хопфа: S³ → S² со слоем S¹.
   Каждая точка S² — окружность в S³.

 В физике:
   • π₂ — классификация магнитных монополей
   • π₃ — классификация инстантонов
   • Расслоение Хопфа — связано со спином электрона

-------------------------------------------------------------------------------
 Гомологии — алгебра "дырок" в пространстве
-------------------------------------------------------------------------------

 Интуиция: Гомологии отвечают на вопрос "какие дырки есть в пространстве?"

   H₀ считает компоненты связности (сколько отдельных кусков)
   H₁ считает тоннели (дырки, через которые можно продеть верёвку)
   H₂ считает полости (замкнутые пустоты, как внутри мяча)

-------------------------------------------------------------------------------
 Ключевая идея: цикл vs граница
-------------------------------------------------------------------------------

 Цикл = замкнутый контур (начало совпадает с концом)
 Граница = контур, который ограничивает какую-то область

 Пример на плоскости с дыркой:

        +-----------------+          +-----------------+
        |    ╭---╮        |          |                 |
        |   ╱     ╲   γ   |          |    ╭---╮        |
        |  |   ●   |←-----|          |   ╱     ╲   δ   |
        |   ╲     ╱       |          |  |       |←-----|
        |    ╰---╯        |          |   ╲     ╱       |
        +-----------------+          |    ╰---╯        |
        γ обходит дырку ●            +-----------------+
                                     δ не обходит дырку

   γ — цикл, но не граница        δ — цикл и граница
   (нельзя "заполнить" — там дырка)  (можно заполнить диском)

   H₁ = {циклы} / {границы} = "циклы, которые нельзя заполнить"

   Для плоскости с дыркой: H₁ = ℤ (один генератор — обход дырки)
   Для обычной плоскости: H₁ = 0 (все циклы можно заполнить)

-------------------------------------------------------------------------------
 Конструкция: от склейки к алгебре
-------------------------------------------------------------------------------

 Идея гомологий — перевести геометрию в линейную алгебру.
 Пространство нарезается на простые куски, куски записываются
 формальными суммами, а вопрос «есть ли дырка?» превращается
 в вопрос «разрешима ли система линейных уравнений?».

 Шаг 1: Нарезка на симплексы

 Симплекс — минимальный «кирпич» каждой размерности:

   • 0-симплекс = точка        ●
   • 1-симплекс = отрезок      ●---●
   • 2-симплекс = треугольник  △
   • 3-симплекс = тетраэдр     ▲

 Любое «приличное» пространство можно разрезать на симплексы,
 склеенные по целым граням. Склейка двух симплексов — это их
 объединение, при котором общая часть является целой гранью
 какой-то размерности. Результат — симплициальный комплекс.

 Шаг 2: Ориентация — откуда берутся знаки

 Чтобы алгебра работала, симплексы должны быть ориентированы:

   • Точка: знак + или −
   • Отрезок: выбрано направление (начало → конец)
   • Треугольник: направление обхода (по или против часовой)
   • Тетраэдр: согласованная ориентация граней

 Ориентация — не украшение, а необходимость. Без неё невозможно
 определить знаки, и вся конструкция разваливается. Смена ориентации
 эквивалентна умножению на −1.

 Ключевое свойство: при склейке двух ориентированных треугольников
 вдоль общего ребра это ребро входит в каждый треугольник
 с противоположными ориентациями — и сокращается в сумме.
 Все внутренние рёбра исчезают, остаётся только внешняя граница.

       A                      A---D
      ╱ ╲    склейка вдоль   ╱ ╲ ╱    ∂ = внешний контур
     ╱ → ╲   ребра AC:      ╱ → ╲     (AC сократилось)
    B-----C                 B-----C

 Шаг 3: Цепи — формальные суммы

 Цепь размерности k — это формальная сумма ориентированных
 k-симплексов с целыми коэффициентами:

   c = n₁σ₁ + n₂σ₂ + ... + nₘσₘ,   nᵢ ∈ ℤ

 Коэффициент nᵢ = −1 означает тот же симплекс с обратной ориентацией.
 Множество всех k-цепей обозначают Cₖ. Это абелева группа:
   • (AB + BC) + (CD) = AB + BC + CD
   • Нулевая цепь: 0
   • Обратная: −(AB) = BA (обратная ориентация)

 Шаг 4: Граничный оператор ∂

 Оператор ∂ берёт ориентированную границу:

   ∂(отрезок AB) = B − A  (конец минус начало)

   ∂(треугольник ABC) = BC + CA + AB  (обход по границе)

           A
          ╱ ╲           ∂△ = AB + BC + CA
         ╱   ╲          (замкнутый контур)
        B-----C

   ∂(тетраэдр ABCD) = BCD − ACD + ABD − ABC  (четыре грани со знаками)

 Свойства ∂:
   • Линейность: ∂(c₁ + c₂) = ∂c₁ + ∂c₂
   • Понижение размерности: ∂: Cₖ → Cₖ₋₁
   • ∂∂ = 0 (граница границы пуста)

 Последнее — не магия, а следствие ориентации. Проверим:

   ∂(∂ △ABC) = ∂(AB + BC + CA)
             = (B−A) + (C−B) + (A−C)
             = 0  ✓

 Каждая вершина входит ровно два раза: как начало одного ребра
 и как конец другого. Знаки противоположны — всё сокращается.
 Это работает в любой размерности: ∂ₖ₋₁ ∘ ∂ₖ = 0.

 Шаг 5: Цепной комплекс и гомологии

 Итого имеем последовательность групп и операторов:

   ... → Cₖ₊₁ →∂ₖ₊₁ Cₖ →∂ₖ Cₖ₋₁ → ...

 Из ∂∂ = 0 следует: Im(∂ₖ₊₁) ⊆ ker(∂ₖ). Каждая граница — цикл.
 Вопрос: верно ли обратное? Всякий ли цикл — граница?

 Если да — дырок нет. Если нет — «лишние» циклы и есть дырки.

   Zₖ = ker(∂ₖ)    — циклы (цепи без границы)
   Bₖ = Im(∂ₖ₊₁)   — границы (цепи, являющиеся чьей-то границей)

   Hₖ = Zₖ / Bₖ    — k-я группа гомологий

 Hₖ измеряет зазор между «быть циклом» и «быть границей».
 Если Hₖ = 0 — все k-циклы являются границами (нет k-дырок).
 Если Hₖ ≠ 0 — есть циклы, которые нельзя заполнить.

 Связь с линейной алгеброй: ∂ₖ — это матрица (огромная, разреженная,
 почти все элементы 0, остальные ±1). Циклы = ядро матрицы.
 Границы = образ другой матрицы. Гомология = ядро/образ.
 Вся задача сводится к линейной алгебре, хотя матрицы гигантские.

 Пример: тор T²

   H₁(T²) = ℤ ⊕ ℤ — два независимых генератора:
   [меридиан] и [параллель]. Любой цикл на торе гомологичен
   n·[меридиан] + m·[параллель] для целых n, m.

   Меридиан — цикл (замкнут), но не граница: его нельзя
   «заполнить» диском, оставаясь на поверхности тора.

 Примеры:
 +-----------------+----+-----+----+------------------+
 | ПРОСТРАНСТВО    | H₀ | H₁  | H₂ | ИНТЕРПРЕТАЦИЯ    |
 +-----------------+----+-----+----+------------------+
 | Точка           | ℤ  | 0   | 0  | 1 кусок, нет дыр |
 | Окружность S¹   | ℤ  | ℤ   | 0  | 1 тоннель        |
 | Сфера S²        | ℤ  | 0   | ℤ  | 1 полость        |
 | Тор T²          | ℤ  | ℤ⊕ℤ | ℤ  | 2 тоннеля,1 пол. |
 | Бублик (полный) | ℤ  | ℤ   | 0  | 1 тоннель        |
 +-----------------+----+-----+----+------------------+

 Связь с эйлеровой характеристикой:

   χ = rank(H₀) − rank(H₁) + rank(H₂) − ...

   Для сферы: χ = 1 − 0 + 1 = 2  ✓
   Для тора:  χ = 1 − 2 + 1 = 0  ✓

-------------------------------------------------------------------------------
 Когомологии — двойственный взгляд через интегрирование
-------------------------------------------------------------------------------

 Гомологии: "какие замкнутые поверхности есть в пространстве?"
 Когомологии: "какие формы можно интегрировать по этим поверхностям?"

 Интуиция:

   Пусть есть 1-форма ω (как df = "градиент").
   Интеграл ∫_γ ω зависит только от класса γ в H₁.

   Если γ₁ ≃ γ₂ (гомологичны), то ∫_γ₁ ω = ∫_γ₂ ω.

 Замкнутая vs точная форма:

   Замкнутая форма: dω = 0
   Точная форма: ω = df для какой-то функции f

   Точная ⇒ замкнутая (потому что d² = 0)
   Но не наоборот. На пространствах с дырками есть замкнутые,
   но не точные формы.

 Пример — dθ на окружности:

   Форма dθ на S¹ — замкнутая (d(dθ) = 0).
   Но ∫_{S¹} dθ = 2π ≠ 0.

   Если бы dθ = df, то ∫_{S¹} dθ = f(конец) − f(начало) = 0.
   Противоречие. Значит dθ не точная на S¹.

 Когомологии де Рама:

   Hᵏ_dR(M) = {замкнутые k-формы} / {точные k-формы}
            = "формы, которые нельзя представить как df"

 Спаривание (теорема де Рама):

   ⟨ω, γ⟩ = ∫_γ ω  — интеграл формы по циклу

   Это задаёт изоморфизм: Hᵏ_dR(M) ≅ Hₖ(M; ℝ)*

   Когомологии = "линейные функционалы на гомологиях"
   (двойственность в действии)

-------------------------------------------------------------------------------
 Cw-комплексы — конструктор для пространств
-------------------------------------------------------------------------------

 Идея: Строить пространства из простых кусков — клеток (дисков).
       Как LEGO: начинаем с точек, приклеиваем отрезки, потом диски, и т.д.

 Клетки:
   0-клетка = точка                ●
   1-клетка = открытый интервал    ●-------●  (концы — 0-клетки)
   2-клетка = открытый диск        ◯  (граница — 1-клетки)
   n-клетка = открытый n-диск      (граница — (n−1)-клетки)

 "Приклеивание" — что это значит:

   Берём n-диск Dⁿ и отображаем его границу ∂Dⁿ = Sⁿ⁻¹
   на уже построенный скелет X^(n-1).

   Новое пространство = X^(n-1) ∪_f Dⁿ  (склейка по f: Sⁿ⁻¹ → X^(n-1))

 Пример: как построить сферу S²

   Способ 1 (минимальный):

     Шаг 0: Одна 0-клетка (точка) ●
     Шаг 2: Приклеиваем 2-клетку, вся граница идёт в эту точку

             ●  ----------►   ◯
          (точка)         (вся граница    (результат = S²)
                           схлопнута
                           в точку)

     S² = 1 нульмерная клетка + 1 двумерная клетка

   Способ 2 (как глобус):

     полюса (0-клетки) + 1 меридиан (1-клетка) +
     полусферы (2-клетки)

 Пример: как построить тор T²

     Тор = квадрат со склеенными противоположными сторонами:

        a --------► a              После склейки:
        |           |                    ╭-------╮
      b |           | b                 ╱         ╲
        |           |                  |  ╭-----╮  |
        ▼           ▼                  |  |     |  |
        a --------► a                   ╲ ╰-----╯  ╱
                                         ╰--------╯

     T² = 1 точка + 2 петли (a и b) + 1 квадрат
        = 1·(0-кл) + 2·(1-кл) + 1·(2-кл)

 Зачем cw-комплексы:

   1. Легко считать гомологии: H_n зависит только от n-клеток и (n±1)-клеток
   2. Эйлерова характеристика: χ = (число 0-кл) − (число 1-кл) + (число 2-кл)
   3. Многие пространства имеют простую клеточную структуру

   Для S²: χ = 1 − 0 + 1 = 2  ✓
   Для T²: χ = 1 − 2 + 1 = 0  ✓

-------------------------------------------------------------------------------
 Группы гомотопий сфер — почему это сложно и интересно
-------------------------------------------------------------------------------

 Вопрос: Сколькими существенно разными способами можно отобразить
         одну сферу на другую?

 πₙ(Sᵐ) = классы отображений Sⁿ → Sᵐ (с точностью до деформации)

 Простые случаи (интуиция работает):

   π₁(S¹) = ℤ:  Петлю на окружности можно обмотать 0, 1, 2, ... раз.
               Число оборотов — целое число.

   π₁(S²) = 0:  Любую петлю на сфере можно стянуть в точку
               (нет "дырки", за которую зацепиться).

   πₙ(Sⁿ) = ℤ:  Сферу на себя можно "обернуть" целое число раз.
               (Степень отображения)

-------------------------------------------------------------------------------
 Сюрприз: π₃(S²) = ℤ ≠ 0
-------------------------------------------------------------------------------

   Казалось бы: 3-мерная сфера "больше" 2-мерной. Любое отображение
   S³ → S² должно сжимать лишнее измерение, всё должно стягиваться.

   Но нет. Существует нетривиальное отображение — расслоение Хопфа:

     h: S³ → S²,  где прообраз каждой точки — окружность S¹

   Представьте: S³ "разлинована" непересекающимися окружностями,
   и каждая окружность соответствует точке на S².

     S³ = ⋃ (окружностей),  индексированных точками S²

   Эти окружности зацеплены друг с другом. Каждые две — как звенья цепи.

   Картинка (две зацепленные окружности — слои над двумя точками S²):

               ╭──────────╮
              ╱            ╲
             ╱   ╭─────────╫──────╮
            │   ╱           ╲      ╲
            │  │    ●         │      ╲
             ╲  ╲   слой     ╱       │
              ╲  ╲  над p₁  ╱        │        ← слой над p₂ ∈ S²
               ╲──╫────────╯         │          проходит сквозь
                   ╲                 │          слой над p₁,
                    ╲       ●       ╱           их нельзя
                     ╲    слой    ╱             разъединить
                      ╲   над p₂ ╱              непрерывно
                       ╰────────╯

   Слои образуют «тор-образные» поверхности, вложенные друг в друга как
   кольца торов. Каждая пара слоёв (над разными точками p, q ∈ S²) имеет
   число зацепления ровно 1. Именно это обеспечивает нетривиальность
   класса [h] ∈ π₃(S²): отображение нельзя "распутать" в константу.

   Физика: Расслоение Хопфа описывает топологию спина электрона.
           Также: калибровочные поля, магнитные монополи Дирака, инстантоны.

 Таблица групп πₙ₊ₖ(Sⁿ):
 +-----+---+----+------+--------+-----+-----+
 | k\n | 1 | 2  | 3    | 4      | 5   | ∞   |
 +-----+---+----+------+--------+-----+-----+
 | 0   | ℤ | ℤ  | ℤ    | ℤ      | ℤ   | ℤ   |
 | 1   | 0 | ℤ  | ℤ₂   | ℤ₂     | ℤ₂  | ℤ₂  |
 | 2   | 0 | ℤ₂ | ℤ₂   | ℤ₂     | ℤ₂  | ℤ₂  |
 | 3   | 0 | ℤ₂ | ℤ₁₂  | ℤ⊕ℤ₁₂  | ℤ₂₄ | ℤ₂₄ |
 +-----+---+----+------+--------+-----+-----+

   Столбец ∞ — стабильные группы: при n ≥ k+2 ответ не меняется.

 Почему такие странные числа (ℤ₁₂, ℤ₂₄)?

   Это глубокий результат. Откуда 24? Связь с:
   • 24 = размерность решётки Лича (теория кодов)
   • 24 делителей модулярных форм (теория чисел)
   • 24 в формуле Римана для ζ(−1) = −1/12 (через 2·12 = 24)

   Группы гомотопий сфер — окно в глубокие связи разных областей математики.

-------------------------------------------------------------------------------
 Стабилизация и надстройка — почему таблица "успокаивается"
-------------------------------------------------------------------------------

 Надстройка Σ: берём пространство X и "подвешиваем" его:

   ΣX = (X × [0,1]) / (X×{0} ~ точка, X×{1} ~ точка)
       = "два конуса, склеенных по X"

   Пример: ΣS⁰ = S¹  (два конуса над двумя точками = окружность)
          ΣS¹ = S²  (два конуса над окружностью = сфера)
          ΣSⁿ = Sⁿ⁺¹

 Теорема Фрейденталя:

   Надстройка индуцирует гомоморфизм: Σ: πₙ₊ₖ(Sⁿ) → πₙ₊ₖ₊₁(Sⁿ⁺¹)

   При n ≥ k+2 этот гомоморфизм — изоморфизм.

   Здесь k — «стем» (k = индекс гомотопической группы минус n).
   Пример: π₃(S²) → π₄(S³) → π₅(S⁴) → ...  — все имеют стем k=1.
   Условие: n ≥ k+2 = 3. Начиная с n=3 (то есть с π₄(S³)) группа
   стабилизируется = ℤ₂.

 Стабильные группы πₖˢ:

   πₖˢ = lim πₙ₊ₖ(Sⁿ)  при n → ∞

   Это "настоящие" инварианты, очищенные от размерных эффектов.
   Вычисление πₖˢ — одна из главных задач алгебраической топологии.

 Инструменты вычисления:

   • Теорема Гуревича: связывает πₙ и Hₙ для "хороших" пространств
   • Точные последовательности: связывают π для расслоений F → E → B
   • Спектральные последовательности: систематический метод вычисления
   • Пространства K(G,n) Эйленберга-Маклейна: стандартные блоки

-------------------------------------------------------------------------------
 Эйлерова характеристика — число, определяющее форму
-------------------------------------------------------------------------------

 Определение (для полиэдров):

   χ = V − E + F

   V = число вершин (vertices)
   E = число рёбер (edges)
   F = число граней (faces)

 Примеры:
 +-----------+----+----+----+---+
 | ФИГУРА    | V  | E  | F  | χ |
 +-----------+----+----+----+---+
 | Тетраэдр  | 4  | 6  | 4  | 2 |
 | Куб       | 8  | 12 | 6  | 2 |
 | Октаэдр   | 6  | 12 | 8  | 2 |
 | Додекаэдр | 20 | 30 | 12 | 2 |
 | Икосаэдр  | 12 | 30 | 20 | 2 |
 +-----------+----+----+----+---+

 Теорема Эйлера: Для любого выпуклого полиэдра χ = 2.

 Более того: χ — топологический инвариант. Зависит только от "формы"
 поверхности, а не от разбиения на грани.

 Эйлерова характеристика поверхностей:
 +-----------------------+-------+---------------------------------------+
 | ПОВЕРХНОСТЬ           |  χ    | ПОЯСНЕНИЕ                             |
 +-----------------------+-------+---------------------------------------+
 | Сфера S²              |  2    | "Шар": нет дырок                      |
 +-----------------------+-------+---------------------------------------+
 | Тор T² (бублик)       |  0    | Одна "дырка"                          |
 +-----------------------+-------+---------------------------------------+
 | Двойной тор           | −2    | Две "дырки"                           |
 |                       |       |                                       |
 |   ╭---------------╮   |       |                                       |
 |  ╱  ╭---╮   ╭---╮  ╲  |       |                                       |
 | |   |   |   |   |   | |       |                                       |
 |  ╲  ╰---╯   ╰---╯  ╱  |       |                                       |
 |   ╰---------------╯   |       |                                       |
 |                       |       |                                       |
 +-----------------------+-------+---------------------------------------+
 | g-тор (род g)         | 2−2g  | g "дырок"                             |
 +-----------------------+-------+---------------------------------------+
 | Проективная плоскость |  1    | Неориентируемая                       |
 | ℝP²                   |       |                                       |
 +-----------------------+-------+---------------------------------------+
 | Бутылка Клейна        |  0    | Неориентируемая, χ = 0 как у тора,    |
 |                       |       | но π₁ другая.                         |
 +-----------------------+-------+---------------------------------------+

 Формула: χ = 2 − 2g (для ориентируемых поверхностей рода g)

 Что такое род g?
   Род = "число дырок" в поверхности.
   Сфера: g=0 (нет дырок). Тор: g=1 (одна дырка, как в бублике).
   g-тор получается из сферы "прикреплением g ручек".
   Формально: g = (2 − χ)/2 для ориентируемых замкнутых поверхностей.

 Связь с другими инвариантами:

   χ = Σ (−1)ⁿ · rank(Hₙ)     (через группы гомологий)

 Применения:

   • Теорема о причёсывании: на S² (χ=2) нельзя причесать ёжика
     (векторное поле обязательно имеет нули)
   • На торе (χ=0) причесать можно.
   • Формула Гаусса-Бонне: ∫∫ K dA = 2πχ (связь кривизны и топологии)

-------------------------------------------------------------------------------
 Классификация компактных поверхностей
-------------------------------------------------------------------------------

 Связная сумма M # N (операция над поверхностями):
   1. Вырезать из M и N по маленькому диску
   2. Склеить M и N по границам этих дисков
   Результат: новая поверхность. Пример: тор = S² # (ручка).

 Теорема (классификация):
 Каждая связная компактная поверхность гомеоморфна ровно одной из:

   Ориентируемые:
   • Сфера S² (род 0)
   • Тор T² (род 1)
   • Двойной тор (род 2)
   • . g-кратный тор (род g)

   Неориентируемые:
   • Проективная плоскость ℝP²
   • Бутылка Клейна
   • . (связные суммы с ℝP²)

 Ориентируемость — можно ли определить "правое" и "левое"?

   На сфере или торе: Да — обойдя вокруг, правое останется правым.

   На ленте Мёбиуса: Нет — обойдя вокруг, правое станет левым.

       Лента Мёбиуса:

       Возьмите полоску бумаги,    ╭-----------------╮
       перекрутите на 180° и       |   →  →  →  →    | ← одна сторона
       склейте концы.              ╰-----------------╯
                                         ↓ склеить с перекрутом
       Результат: поверхность      ╭-----------------╮
       с одной стороной.           |   ←  →  →  ←    | ← та же сторона.
                                   ╰-----------------╯

   Бутылка Клейна = лента Мёбиуса, "заклеенная" в трубку
   (нельзя вложить в ℝ³ без самопересечения)

 Инварианты, различающие поверхности:
 +----------------+---+--------+---------------+
 | ПОВЕРХНОСТЬ    | χ | π₁     | ОРИЕНТИРУЕМА? |
 +----------------+---+--------+---------------+
 | Сфера S²       | 2 | {e}    | Да            |
 | Тор T²         | 0 | ℤ×ℤ    | Да            |
 | Бутылка Клейна | 0 | другая | Нет           |
 | ℝP²            | 1 | ℤ/2    | Нет           |
 +----------------+---+--------+---------------+

 Важно: χ и π₁ вместе полностью классифицируют компактные поверхности.


-------------------------------------------------------------------------------
Таблица инвариантов — чем различать пространства
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Идея инварианта
-------------------------------------------------------------------------------

 Проблема: как доказать, что два пространства разные?
   Бублик ≠ сфера — это "видно", но нужен строгий аргумент.

 Решение: сопоставить пространству число или группу.
   Если числа разные → пространства точно разные.

 Инвариант = то, что не меняется при деформации (без разрывов и склеек).


 Главные инварианты с объяснениями
+-------------------+---------------------------------------------------------+
| ИНВАРИАНТ         | ЧТО ОЗНАЧАЕТ ПРОСТЫМИ СЛОВАМИ                           |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| π₀ (связность)    | Сколько кусков? Если объект распадается на части.       |
|                   | π₀(● ●) = 2 (две точки), π₀(○) = 1 (один круг)          |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| π₁ (фунд. группа) | Какие петли нельзя стянуть в точку?                     |
|                   | На плоскости — все петли стягиваются: π₁ = 0            |
|                   | На окружности — петля вокруг не стянется: π₁ = ℤ        |
|                   | На бублике — две независимые петли: π₁ = ℤ×ℤ            |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| χ (Эйлер)         | Формула V − E + F для разбиения на многоугольники.      |
|                   | Сфера: χ = 2 (любое разбиение)                         |
|                   | Бублик: χ = 0                                           |
|                   | Поверхность с g дырками: χ = 2 − 2g                     |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Ориентируемость   | Есть ли "две стороны"?                                  |
|                   | Сфера, бублик — ДА (можно покрасить в два цвета)        |
|                   | Лента Мёбиуса, бутылка Клейна — нет (одна сторона)      |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Размерность       | Сколько чисел нужно, чтобы задать точку?                |
|                   | Прямая: dim = 1, плоскость: dim = 2, пространство: dim=3|
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Компактность      | Ограничено и замкнуто?                                  |
|                   | Сфера — компактна (конечная), ℝ — нет (бесконечна)      |
|                   |                                                         |
+-------------------+---------------------------------------------------------+

-------------------------------------------------------------------------------
 Как использовать
-------------------------------------------------------------------------------

 Инвариант различается  →  пространства точно разные.
   χ(сфера) = 2 ≠ 0 = χ(бублик)  →  сфера ≇ бублик ✓

 Инварианты совпадают   →  ещё не факт, что одинаковые.
   Нужно проверять другие инварианты или искать явный изоморфизм.

 Пример: Как доказать, что кружка = бублик?
   χ = 0 у обоих, π₁ = ℤ у обоих, ориентируемы оба.
   Но это не доказательство. Нужно построить деформацию.


-------------------------------------------------------------------------------
Резюме: центральные понятия топологии
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Иерархия понятий
-------------------------------------------------------------------------------

   Множество X
       |
       | + топология τ (семейство "открытых" множеств)
       ↓
   Топологическое пространство (X, τ)
       |
       +--→ Открытые/закрытые множества
       |    Граница, внутренность, замыкание
       |
       +--→ Непрерывные отображения f: X → Y
       |    (прообраз открытого открыт)
       |
       +--→ Гомеоморфизм (топологическая эквивалентность)
       |    (непрерывная биекция с непрерывным обратным)
       |
       +--→ Связность (нельзя разбить на два открытых)
       |
       +--→ Компактность (конечные подпокрытия)
       |
       +--→ Инварианты (π₁, Hₙ, χ, ...)
            для различения пространств

-------------------------------------------------------------------------------
 Связь с другими структурами
-------------------------------------------------------------------------------

                    Топология (близость)
                         |
            + метрика    |
            (расстояние) |
                         ↓
                Метрическое пространство
                         |
       + лин. структура  |
         + норма (‖x‖,   |
       d(x,y) = ‖x−y‖)  ↓
              Нормированное пространство
                         |
          + полнота      |
        (все пределы     |
         существуют)     ↓
               Банахово пространство
                         |
        + скал. произв.  |
        (‖x‖²=⟨x,x⟩)    ↓
               Гильбертово пространство

 Каждый уровень наследует топологию от предыдущего,
 но добавляет дополнительную структуру.

-------------------------------------------------------------------------------
 Практические следствия
-------------------------------------------------------------------------------

 Для инженера / прикладника:

 • Непрерывность функций — ключ к численным методам
   (близкие входы дают близкие выходы = устойчивость)

 • Компактность — гарантия существования решений
   (экстремумы существуют, последовательности сходятся)

 • Связность — "целостность" системы
   (можно ли перейти из одного состояния в другое?)

 • Топологические инварианты — "форма" пространства параметров
   (сколько "дырок" в допустимой области?)

-------------------------------------------------------------------------------
 Полная схема вложенности пространств
-------------------------------------------------------------------------------

 Каждый уровень добавляет структуру и ограничивает класс пространств:

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   МНОЖЕСТВО                                                             |
 |       |                                                                 |
 |       | + топология τ                                                   |
 |       ↓                                                                 |
 |   ТОПОЛОГИЧЕСКОЕ ПРОСТРАНСТВО                                           |
 |       |                                                                 |
 |       | + аксиома T₂ (хаусдорфовость)                                   |
 |       ↓                                                                 |
 |   хаусдорфово пространство (единственность пределов)                    |
 |       |                                                                 |
 |       | + метризуемость (топология порождается метрикой)                |
 |       ↓                                                                 |
 |   метрическое пространство (понятие расстояния)                         |
 |       |                                                                 |
 |       | + полнота (все посл-ти Коши сходятся)                           |
 |       ↓                                                                 |
 |   ПОЛНОЕ МЕТРИЧЕСКОЕ ПРОСТРАНСТВО                                       |
 |       |                                                                 |
 |       | + линейная структура + норма                                    |
 |       ↓                                                                 |
 |   банахово пространство (полное нормированное)                          |
 |       |                                                                 |
 |       | + норма из скалярного произведения                              |
 |       ↓                                                                 |
 |   гильбертово пространство (полное со скал. произв.)                    |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Примеры на каждом уровне:
 +--------------------+----------------------------------------+
 | УРОВЕНЬ            | ПРИМЕРЫ                                |
 +--------------------+----------------------------------------+
 | Топологическое     | ℝⁿ, любое множество с любой топологией |
 +--------------------+----------------------------------------+
 | Хаусдорфово        | ℝⁿ, многообразия, но не антидискретное |
 +--------------------+----------------------------------------+
 | Метрическое        | ℝⁿ, C[0,1], ℓᵖ, любое с метрикой      |
 +--------------------+----------------------------------------+
 | Полное метрическое | ℝⁿ, C[0,1], ℓᵖ, но не ℚ, не (0,1)     |
 +--------------------+----------------------------------------+
 | Банахово           | ℝⁿ, C[0,1], ℓᵖ (p≥1), Lᵖ              |
 +--------------------+----------------------------------------+
 | Гильбертово        | ℝⁿ, L², ℓ², но не C[0,1], не ℓ¹        |
 +--------------------+----------------------------------------+

 Примечание: Lᵖ — пространство функций с конечным ∫|f|ᵖ. Полное определение
 требует интеграла Лебега. В ℝⁿ можно использовать Римана.

-------------------------------------------------------------------------------
 Что такое норма
-------------------------------------------------------------------------------

 Норма ‖·‖ на векторном пространстве V — это "длина вектора":

   • ‖x‖ ≥ 0,  причём ‖x‖ = 0 ⟺ x = 0
   • ‖αx‖ = |α|·‖x‖           (масштабирование)
   • ‖x + y‖ ≤ ‖x‖ + ‖y‖      (неравенство треугольника)

 Норма порождает метрику: d(x,y) = ‖x − y‖
 Примеры: ‖x‖₂ = √(Σxᵢ²) в ℝⁿ,  ‖f‖₂ = √(∫|f|²) в L²

-------------------------------------------------------------------------------
 Метризуемость — как доказывать, что пространство (не) метризуемо
-------------------------------------------------------------------------------

 Определение:
   Топологическое пространство (X, τ) называется метризуемым, если
   существует метрика d на X, порождающая топологию τ.

-------------------------------------------------------------------------------
 Необходимые условия метризуемости (если нарушены — не метризуемо)
-------------------------------------------------------------------------------

 1. Хаусдорфовость (T₂):
    Метрическое пространство всегда T₂.
    ⇒ Если пространство не хаусдорфово — оно не метризуемо.

    Пример: Антидискретная топология на {a,b} — точки неразделимы.

 2. Первая аксиома счётности:
    В метрическом пространстве каждая точка имеет счётную базу
    окрестностей (шары радиуса 1/n).
    ⇒ Если нет счётной базы окрестностей — не метризуемо.

 3. Секвенциальность:
    В метрическом пространстве замкнутость эквивалентна
    секвенциальной замкнутости (содержит пределы своих последовательностей).
    ⇒ Если есть секвенциально замкнутое, но не замкнутое — не метризуемо.

-------------------------------------------------------------------------------
 Достаточные условия (теоремы о метризуемости)
-------------------------------------------------------------------------------

 Две аксиомы счётности:

   • Первая (A₁): каждая точка имеет счётную базу окрестностей
     (шары радиуса 1/n в метрическом пространстве)

   • Вторая (A₂): вся топология имеет счётную базу
     (любое открытое = объединение элементов счётного семейства)

   A₂ ⇒ A₁, но не наоборот. Пример: несчётное дискретное пространство
   удовлетворяет A₁ (база точки = сама точка), но не A₂.

 Теорема Урысона:
   Регулярное (T₃) + Вторая аксиома счётности ⇒ метризуемо.
   (Нужна счётная база всей топологии, не только окрестностей точек)

 Теорема Нагаты-Смирнова:
   T₃ + σ-локально конечная база ⇒ метризуемо.

-------------------------------------------------------------------------------
 Стратегии доказательства неметризуемости
-------------------------------------------------------------------------------

 Стратегия 1: Нарушение T₂
   Показать, что две точки нельзя разделить непересекающимися окрестностями.
   Пример: X с антидискретной топологией (τ = {∅, X}).

 Стратегия 2: Нет счётной базы окрестностей
   Найти точку, у которой любая счётная система окрестностей
   не является базой.
   Пример: Несчётное произведение ∏ᵢℝ с топологией произведения.

 Стратегия 3: Секвенциальный аргумент
   Найти множество A, которое секвенциально замкнуто,
   но не замкнуто топологически.

 Стратегия 4: Компактность + несчётность
   В компактном метрическом пространстве каждое открытое покрытие
   имеет счётное подпокрытие (свойство Линделёфа).
   ⇒ Если компактно, но нет счётного подпокрытия — не метризуемо.

-------------------------------------------------------------------------------
 Классические примеры
-------------------------------------------------------------------------------

 +--------------------------+-------------+-------------------------------+
 | ПРОСТРАНСТВО             | МЕТРИЗУЕМО? | ПОЧЕМУ                        |
 +--------------------------+-------------+-------------------------------+
 | ℝⁿ (станд. топология)    | ДА          | Евклидова метрика             |
 +--------------------------+-------------+-------------------------------+
 | ℝ (топология Зарисского) | НЕТ         | Не T₂: замкнутые = конечные   |
 +--------------------------+-------------+-------------------------------+
 | ℝ (стрелка, топология    | НЕТ         | Сепарабельно, но нет счётной  |
 | Зоргенфрея)              |             | базы (T₂, но не 2-счётно)    |
 +--------------------------+-------------+-------------------------------+
 | [0,1]^[0,1] (куб Тихон.) | НЕТ         | Нет счётной базы окрестностей |
 +--------------------------+-------------+-------------------------------+
 | βℕ (Стоуна-Чеха)         | НЕТ         | Несчётное дискретное подпр-во |
 |                          |             | в компакте                    |
 +--------------------------+-------------+-------------------------------+
 | ω₁ (первый несчётный     | НЕТ         | Секвенциально компактно,      |
 | ординал)                 |             | но не компактно               |
 +--------------------------+-------------+-------------------------------+

 Пошаговый пример: Доказать, что [0,1]^ℝ не метризуемо

   1. Это несчётное произведение компактов ⇒ компактно (Тихонов).
   2. Предположим, что метризуемо.
   3. Тогда имеет счётную базу окрестностей в каждой точке.
   4. Рассмотрим точку x = (0, 0, 0, ...) — нуль во всех координатах.
   5. Базисная окрестность зависит от конечного числа координат.
   6. Счётная база ⇒ затрагивает счётное множество координат.
   7. Но координат несчётно много ⇒ противоречие.

 Итог: [0,1]^ℝ не метризуемо, т.к. нет счётной базы окрестностей.

-------------------------------------------------------------------------------
 Прикладной пример: связность трубопроводной сети
-------------------------------------------------------------------------------

 Задача: Тепловая сеть города. Нужно понять, что произойдёт при аварии.

            Котельная
               ●===========●===========● Район А
               |           |           |
               |           |           |
               ●===========●===========● Район Б
               |           |           |
               |           |           |
               ●===========●===========● Район В

 Топологический взгляд:

 1. Связность:
    Сеть связна = из любой точки можно добраться до любой другой.
    Если авария разрезает сеть на две части → сеть становится несвязной.

 2. Число независимых циклов = первое число Бетти β₁:

    β₁ = E − V + 1     (для связного графа)
    E = число рёбер (трубопроводов)
    V = число вершин (узлов)

    Для нашей сети: V = 9, E = 12  ⇒  β₁ = 12 − 9 + 1 = 4

    Смысл: Можно отключить 4 трубы без потери связности.
    (при правильном выборе)

 3. Практический вывод:

    • β₁ = 0: древовидная сеть, любая авария отключает часть потребителей
    • β₁ > 0: кольцевая сеть, есть резервные пути
    • Чем больше β₁, тем надёжнее сеть (но дороже строительство)


-------------------------------------------------------------------------------
 Топологическая эквивалентность в теплообменниках:
-------------------------------------------------------------------------------

 Два теплообменника с одинаковой топологией течения — одинаково работают.

   Труба в трубе:     ===============     Противоток: эффективность ~100%
                      ---------------

   Пластинчатый:      +===+ +===+        Противоток с перемешиванием
                      |   | |   |
                      +===+ +===+        эффективность ~95%

   Смесительный:      жидкости            Прямоток (топологически
                      смешиваются         другой) — эффективность ~50%

 Топология течения (противоток/прямоток/перекрёстный) определяет
 теоретический предел эффективности теплообмена.


Топология даёт понятие близости, но не говорит, как измерять и вычислять.
Чтобы работать с пространством количественно — складывать векторы, решать
уравнения, находить проекции — нужна дополнительная структура.

Линейная алгебра добавляет к пространству операции сложения и умножения
на число. Это делает возможными вычисления — и это язык почти всей физики.

===============================================================================
Линейная алгебра — язык линейных преобразований
===============================================================================

Линейная алгебра добавляет к пространству плоскость. Теперь пространство не
просто "связное" (топология) — оно ровное, без кривизны. Можно провести прямую
линию, можно сложить два вектора, можно растянуть вектор в два раза.

В терминах "объект—наблюдатель" линейная алгебра — это место, где наблюдатель
впервые появляется по-настоящему.

-------------------------------------------------------------------------------
Базис — это выбор наблюдателя. Координаты — его язык.
-------------------------------------------------------------------------------

Один и тот же вектор v существует независимо от базиса. Но чтобы записать его
числами (3, 4, 5), нужно выбрать базис. Другой наблюдатель в другом базисе
запишет тот же вектор как (1, 2, 6). Вектор не изменился — изменилась запись.

Матрица перехода между базисами — это словарь для перевода между языками
двух наблюдателей. Формула A' = P⁻¹AP говорит: "вот как выглядит тот же
оператор A глазами нового наблюдателя".

Что инвариантно (не зависит от наблюдателя):
  • Ранг матрицы — сколько независимых направлений она задействует
  • Определитель — во сколько раз меняется объём
  • След — сумма собственных значений
  • Характеристический полином — "ДНК" оператора

Эти инварианты — настоящие свойства объекта. Конкретные числа в матрице —
лишь способ записи, зависящий от базиса.

-------------------------------------------------------------------------------
 Линейная алгебра как взгляд на пространство
-------------------------------------------------------------------------------

 Линейная алгебра видит в пространстве две операции:
   • Сложение векторов (можно складывать точки)
   • Умножение на число (можно растягивать/сжимать)

 Это больше структуры, чем у топологии (только близость),
 но меньше, чем у метрики (конкретные расстояния).

 Ключевой факт: Почти все пространства в физике и инженерии — векторные.
   • Силы можно складывать
   • Скорости можно складывать
   • Состояния в квантовой механике можно складывать


Линейная алгебра — вторая по важности структура после множеств. Она описывает
всё, что можно "складывать" и "растягивать": векторы, функции, матрицы.

Почему это центральная тема:
  • Квантовая механика живёт в векторных пространствах
  • Нелинейные задачи линеаризуются (производная)
  • Данные — это векторы в ℝⁿ
  • Линейные системы решаются явно

-------------------------------------------------------------------------------
 Место в общей картине
-------------------------------------------------------------------------------

 Линейная алгебра — это изучение векторных пространств и
 линейных отображений между ними.

 Почему это важно:
   • Это простейшая структура, где можно складывать и растягивать
   • Линейные задачи решаемы (в отличие от нелинейных)
   • Нелинейные задачи приближаются линейными (производная)
   • Квантовая механика живёт в векторных пространствах

   +--------------------------------+
   | ИЕРАРХИЯ ПРЕОБРАЗОВАНИЙ        |
   +--------------------------------+
   |                                |
   | Произвольные отображения       |
   | ↓ сохраняют непрерывность      |
   | Непрерывные (топология)        |
   | ↓ сохраняют гладкость          |
   | Гладкие (анализ, многообразия) |
   | ↓ сохраняют линейную структуру |
   | Линейные  ← мы здесь           |
   | ↓ сохраняют углы и длины       |
   | Ортогональные (группа O(n))    |
   | ↓ сохраняют ориентацию         |
   | Вращения (группа SO(n))        |
   |                                |
   +--------------------------------+


 Векторное пространство — формальное определение

 +-------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ВЕКТОРНОЕ ПРОСТРАНСТВО                               |
 +-------------------------------------------------------------------+
 |                                                                   |
 | Векторное пространство над полем F — это множество V с двумя      |
 | операциями: сложением (+) и умножением на скаляр (·), такими что: |
 |                                                                   |
 | аксиомы сложения (V — абелева группа по +):                       |
 | (V1) u + v = v + u                    (коммутативность)           |
 | (V2) (u + v) + w = u + (v + w)        (ассоциативность)           |
 | (V3) ∃ 0 ∈ V: v + 0 = v              (нейтральный элемент)        |
 | (V4) ∀v ∃(−v): v + (−v) = 0          (обратный элемент)           |
 |                                                                   |
 | АКСИОМЫ УМНОЖЕНИЯ НА СКАЛЯР:                                      |
 | (V5) α(βv) = (αβ)v                   (ассоциативность)            |
 | (V6) 1·v = v                         (единица поля)               |
 |                                                                   |
 | АКСИОМЫ ДИСТРИБУТИВНОСТИ:                                         |
 | (V7) α(u + v) = αu + αv              (по векторам)                |
 | (V8) (α + β)v = αv + βv              (по скалярам)                |
 |                                                                   |
 +-------------------------------------------------------------------+

 Характеристическое свойство: Векторное пространство допускает:
   • Складывать объекты (параллелограмм)
   • Растягивать/сжимать объекты (умножение на число)
   • и эти операции ведут себя "хорошо" (согласованно)

 Почему именно эти аксиомы:
   Это минимальный набор правил, при которых работает интуиция
   "стрелок, которые можно складывать и растягивать".


 Примеры векторных пространств
+-----------------+-----------------------------+---------------+-------------+
| ПРОСТРАНСТВО    | ЭЛЕМЕНТЫ                    | РАЗМЕРНОСТЬ   | КОММЕНТАРИЙ |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℝⁿ              | (x₁, x₂, ..., xₙ), xᵢ ∈ ℝ    | n             | Стандартный |
|                 |                             |               | пример      |
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| C([a,b])        | Непрерывные функции f: ℝ→ℝ  | ∞             | Функции —   |
|                 | (f+g)(x) = f(x)+g(x)        |               | тоже векторы|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℝ[x]≤n          | Многочлены степени ≤ n      | n + 1         | Базис:      |
|                 | a₀ + a₁x + ... + aₙxⁿ       |               | 1, x, x²,...|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| M_{m×n}(ℝ)      | Матрицы размера m×n         | m·n           | Базис: Eᵢⱼ  |
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℂⁿ              | (z₁, ..., zₙ), zᵢ ∈ ℂ        | n (над ℂ)     | Или 2n над ℝ|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+

 Контрпример: Что не является векторным пространством

 +-----------------------+-----------------------------------------------+
 | {(x,y) ∈ ℝ² : x ≥ 0}  | (1,0) ∈ V, но (−1)·(1,0) = (−1,0) ∉ V         |
 | (правая полуплоскость) | Нет замкнутости относительно ×скаляр.         |
 +-----------------------+-----------------------------------------------+


 Линейная независимость и базис

 +----------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ЛИНЕЙНАЯ КОМБИНАЦИЯ                         |
 +----------------------------------------------------------+
 |                                                          |
 | Линейная комбинация векторов v₁, ..., vₖ — это выражение |
 |                                                          |
 | α₁v₁ + α₂v₂ + ... + αₖvₖ,  где αᵢ ∈ F (скаляры)           |
 |                                                          |
 +----------------------------------------------------------+

 +------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ЛИНЕЙНАЯ НЕЗАВИСИМОСТЬ                              |
 +------------------------------------------------------------------+
 |                                                                  |
 | Векторы v₁, ..., vₖ линейно независимы, если из равенства        |
 |                                                                  |
 | α₁v₁ + α₂v₂ + ... + αₖvₖ = 0                                     |
 |                                                                  |
 | следует, что α₁ = α₂ = ... = αₖ = 0.                             |
 |                                                                  |
 | Иначе говоря: единственный способ получить 0 — взять все αᵢ = 0. |
 |                                                                  |
 +------------------------------------------------------------------+

 Геометрический смысл и примеры:
 +-------------------+------------------------------+
 | УТВЕРЖДЕНИЕ       | ПОЧЕМУ                       |
 +-------------------+------------------------------+
 | 2 вектора ЛНЗ     | ⟺ не на одной прямой        |
 | 3 вектора ЛНЗ     | ⟺ не в одной плоскости      |
 | ЛЗ = "избыточные" | Один выражается через другие |
 +-------------------+------------------------------+

 +------------------------------------+-----------------------------------+
 | ПРИМЕР В ℝ³                        | ЛНЗ ИЛИ ЛЗ?                       |
 +------------------------------------+-----------------------------------+
 | e₁=(1,0,0), e₂=(0,1,0), e₃=(0,0,1) | ЛНЗ: α₁e₁+α₂e₂+α₃e₃=0 ⇒ все αᵢ=0  |
 | v₁=(1,0,0), v₂=(0,1,0), v₃=(1,1,0) | ЛЗ: v₁+v₂−v₃=0 (нашли ненулевые) |
 +------------------------------------+-----------------------------------+

 +-------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: БАЗИС                                                |
 +-------------------------------------------------------------------+
 |                                                                   |
 | Базис пространства V — это набор векторов {e₁, ..., eₙ}, который: |
 |                                                                   |
 | (1) Линейно независим                                             |
 | (2) Порождает V (любой v ∈ V выражается как v = Σ αᵢeᵢ)           |
 |                                                                   |
 | Эквивалентно: базис — это минимальная порождающая система,        |
 | или максимальная линейно независимая система.                     |
 |                                                                   |
 +-------------------------------------------------------------------+

 +--------------------------------------------------------------------+
 | ТЕОРЕМА О РАЗМЕРНОСТИ                                              |
 +--------------------------------------------------------------------+
 |                                                                    |
 | Все базисы одного пространства содержат одинаковое число векторов. |
 | Это число называется размерностью пространства: dim(V).            |
 |                                                                    |
 +--------------------------------------------------------------------+

 Примеры размерностей:
   • dim(ℝⁿ) = n
   • dim(M_{m×n}) = m·n
   • dim(ℝ[x]≤n) = n + 1
   • dim({непрерывные функции}) = ∞


 Два типа базисов в бесконечномерных пространствах

 +---------------+-----------------------------+------------------------+
 | ТИП           | ОПРЕДЕЛЕНИЕ                 | ПРИМЕР                 |
 +---------------+-----------------------------+------------------------+
 |               |                             |                        |
 | базис Гамеля  | v = Σ αᵢeᵢ (конечная сумма) | Для C[0,1] такой базис |
 | (алгебраич.)  | Каждый вектор — конечная    | несчётен. Не можем     |
 |               | линейная комбинация         | явно построить.        |
 |               |                             |                        |
 +---------------+-----------------------------+------------------------+
 |               |                             |                        |
 | базис Шаудера | v = Σ αᵢeᵢ (бесконечный     | {1, x, x², ...} для    |
 | (топологич.)  | сходящийся ряд)             | аналитических функций  |
 |               | Требуется топология.        | {sin nx, cos nx} — L²  |
 |               |                             |                        |
 +---------------+-----------------------------+------------------------+

 Почему это важно:
   • В алгебре по умолчанию базис Гамеля
   • В рядах Фурье и функ. анализе — базис Шаудера
   • dim_Гамель(L²) = несчётна, dim_Шаудер(L²) = счётна (если сепарабельно)

 Одно и то же пространство имеет разные "размерности" в зависимости от того,
 какой тип базиса используется.


 Линейное отображение — сохраняющее структуру

 +------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ЛИНЕЙНОЕ ОТОБРАЖЕНИЕ                                |
 +------------------------------------------------------------------+
 |                                                                  |
 | Отображение T: V → W называется линейным, если:                  |
 |                                                                  |
 | (L1) T(u + v) = T(u) + T(v)      (сохраняет сложение)            |
 | (L2) T(αv) = αT(v)               (сохраняет умножение на скаляр) |
 |                                                                  |
 | Эквивалентно (в одной формуле):                                  |
 |                                                                  |
 | T(αu + βv) = αT(u) + βT(v)       (сохраняет линейные комбинации) |
 |                                                                  |
 +------------------------------------------------------------------+

 Следствия из определения:
 +---------------------+-------------------------------+
 | СВОЙСТВО            | ПОЧЕМУ                        |
 +---------------------+-------------------------------+
 | T(0) = 0            | T(0·v) = 0·T(v) = 0           |
 | T(−v) = −T(v)       | T((−1)·v) = (−1)·T(v)         |
 | T(Σαᵢvᵢ) = ΣαᵢT(vᵢ) | Многократное применение L1+L2 |
 +---------------------+-------------------------------+

 Ключевой факт: T полностью определяется значениями на базисе.
   Если знаем T(e₁),...,T(eₙ), то T(v) = T(Σαᵢeᵢ) = ΣαᵢT(eᵢ)

 Примеры линейных отображений:
 +-------------------+---------------------------+-------------------+
 | ОТОБРАЖЕНИЕ       | ФОРМУЛА                   | ГДЕ ИСПОЛЬЗУЕТСЯ  |
 +-------------------+---------------------------+-------------------+
 | Поворот на θ      | (x,y) ↦ (x·cosθ−y·sinθ,    | Геометрия, физика |
 |                   |         x·sinθ+y·cosθ)     |                   |
 | Проекция на ось x | (x,y) ↦ (x, 0)            | Тень, компоненты  |
 | Дифференцирование | p ↦ p' для p ∈ ℝ[x]       | Анализ            |
 | Интегрирование    | p ↦ ∫p                    | Анализ            |
 | Умножение на A    | v ↦ Av                    | Системы уравнений |
 +-------------------+---------------------------+-------------------+

 Контрпример: T(x,y)=(x+1, y) — не линейное. T(0,0)=(1,0)≠(0,0)


 Матрица — линейное отображение в координатах

 +=================================================================+
 | Главная ошибка инженеров: матрица — это не тензор.              |
 +=================================================================+
 |                                                                 |
 | Матрица — это таблица чисел, запись координат чего-то в базисе. |
 | Одна и та же матрица 3×3 может представлять:                    |
 |                                                                 |
 | • Линейный оператор T: V → V    (тензор типа (1,1))             |
 | • Билинейную форму B: V×V → ℝ  (тензор типа (0,2))              |
 | • Квадратичную форму Q(v)       (тензор типа (0,2))             |
 | • Просто набор коэффициентов    (не тензор вообще)             |
 |                                                                 |
 | без указания, что это — матрица бессмысленна при смене базиса.  |
 | Разные объекты преобразуются по разным законам:                 |
 |                                                                 |
 | A' = P⁻¹AP    (оператор)     vs     A' = PᵀAP    (форма)        |
 |                                                                 |
 | Путаница здесь — источник половины ошибок в механике и физике.  |
 +=================================================================+

 Ключевая идея: Матрица = запись T в выбранных базисах
                Сменил базис → сменилась матрица, но T то же.

 Построение: T: V → W, базис {eⱼ} в V, базис {fᵢ} в W
   T(eⱼ) = Σᵢ aᵢⱼfᵢ  →  j-й столбец A = координаты T(eⱼ) в {fᵢ}

 Пример: Поворот на 90° в ℝ²
 +-----------------+----------------+------------------------+
 | БАЗИСНЫЙ ВЕКТОР | ОБРАЗ          | СТОЛБЕЦ МАТРИЦЫ        |
 +-----------------+----------------+------------------------+
 | e₁ = (1,0)      | T(e₁) = (0,1)  | (0, 1)ᵀ — 1-й столбец  |
 | e₂ = (0,1)      | T(e₂) = (−1,0) | (−1, 0)ᵀ — 2-й столбец |
 +-----------------+----------------+------------------------+

   Матрица: A = | 0  −1|   Проверка: A|1| = |0| = T(1,0) ✓
                | 1   0|              |0|   |1|

 +---------------------------------------------------------+
 | ТЕОРЕМА: T ↔ A, S ↔ B  ⇒  S∘T ↔ BA  (порядок обратный) |
 +---------------------------------------------------------+

 Изоморфизм: Выбор базисов даёт биекцию
   Hom(V, W) ≅ M_{m×n}(F)
 где Hom(V, W) — пространство линейных отображений V → W,
     M_{m×n}(F) — пространство матриц m×n над полем F,
     m = dim(W), n = dim(V).

 Важно: Изоморфизм зависит от выбора базисов. Разные базисы → разные
 матрицы для одного оператора. Связь: A' = P⁻¹AP (смена базиса).


 Критическое предупреждение (частая ошибка)

 Закон A' = P⁻¹AP верен для линейного оператора (тензор типа (1,1)).

 Для квадратичной/билинейной формы (тензор типа (0,2)) закон другой:

   A' = PᵀAP   (не P⁻¹, а Pᵀ.)

 +-------------------+--------------------------------+
 | ОБЪЕКТ            | ЗАКОН ТРАНСФОРМАЦИИ            |
 +-------------------+--------------------------------+
 | Линейный оператор | A' = P⁻¹AP                     |
 | T: V → V          | (подобие матриц)               |
 +-------------------+--------------------------------+
 | Билинейная форма  | A' = PᵀAP                      |
 | B: V × V → ℝ      | (конгруэнтность матриц)        |
 +-------------------+--------------------------------+
 | Метрика gᵢⱼ       | g'ᵢⱼ = (∂xᵏ/∂x'ⁱ)(∂xˡ/∂x'ʲ)gₖₗ  |
 | (тензор (0,2))    | (два нижних индекса)          |
 +-------------------+--------------------------------+

 Где это критично: При вычислении собственных значений квадратичной формы
 (момент инерции, тензор напряжений) используйте PᵀAP, не P⁻¹AP.

 Типы тензоров


 Физический смысл: матрица связывает разные величины


 Умножение матрицы на вектор w = Av имеет два принципиально разных смысла:

-------------------------------------------------------------------------------
 Смысл 1: активное преобразование — вектор реально меняется
-------------------------------------------------------------------------------

   Был вектор v, стал другой вектор w = Av
   Физически: повернули, растянули, деформировали сам объект

   Примеры:
   • Повернули стержень на 30° (матрица поворота)
   • Растянули пружину (матрица деформации)
   • Изменили скорость при столкновении

-------------------------------------------------------------------------------
 Смысл 2: пассивное преобразование — вектор тот же, меняются координаты
-------------------------------------------------------------------------------

   Был вектор v с координатами (3, 4) в старом базисе
   Тот же вектор имеет координаты (1.5, 4) в новом базисе
   Физически: ничего не изменилось, просто пересчитали числа

   Примеры:
   • Измерили длину в метрах, потом в футах
   • Перешли от декартовых координат к полярным
   • Сменили систему отсчёта (со вагона → со земли)

-------------------------------------------------------------------------------
 Смысл 3: матрица как физический закон — связь между разными величинами
-------------------------------------------------------------------------------

 Это главное применение в физике и инженерии.
 Матрица описывает, как одна векторная величина порождает другую.

 +-------------------------------------------------------------------+
 | МАТРИЦА ТЕПЛОПРОВОДНОСТИ  q = −λ·∇T                               |
 +-------------------------------------------------------------------+
 |                                                                   |
 | ∇T — градиент температуры (вектор, К/м): "куда и как быстро       |
 | растёт температура"                                               |
 | q  — тепловой поток (вектор, Вт/м²): "куда и сколько течёт тепло" |
 | λ  — матрица теплопроводности                                     |
 | (далее узнаем, что это "тензор 2-го ранга")                       |
 |                                                                   |
 | В изотропном материале (металл, вода):                            |
 | λᵢⱼ = λ·δᵢⱼ  (скаляр × единичная матрица)                         |
 | Тепло течёт вдоль градиента (в направлении убывания T)            |
 |                                                                   |
 | В анизотропном материале (дерево, кристалл, слоистая изоляция):   |
 |     ⎛λₓₓ  λₓᵧ  λₓᵤ⎞                                                |
 | λ = ⎜λᵧₓ  λᵧᵧ  λᵧᵤ⎟                                                |
 |     ⎝λᵤₓ  λᵤᵧ  λᵤᵤ⎠                                                |
 |                                                                   |
 | Тепло может течь не вдоль градиента.                              |
 | Греешь с одной стороны — тепло уходит вбок.                       |
 |                                                                   |
 +-------------------------------------------------------------------+

 +---------------------------------------------------------------+
 | МАТРИЦА НАПРЯЖЕНИЙ  σ                                         |
 +---------------------------------------------------------------+
 |                                                               |
 | n — нормаль к площадке (вектор, направление)                  |
 | F = σ·n — сила на единицу площади (вектор, Н/м²)              |
 | σ — матрица напряжений 3×3                                    |
 |                                                               |
 |                                                               |
 | σ говорит: "если площадка направлена так (n),                 |
 | то сила на неё будет такая (F)"                               |
 |                                                               |
 | Это не одна сила — это правило для всех возможных площадок.   |
 | σ содержит полную информацию о напряжённом состоянии в точке. |
 |                                                               |
 +---------------------------------------------------------------+

 +------------------------------------------------------------------+
 | МАТРИЦА ИНЕРЦИИ  I                                               |
 +------------------------------------------------------------------+
 |                                                                  |
 | ω — угловая скорость (вектор): "вокруг какой оси и как быстро"   |
 | L = I·ω — момент импульса (вектор)                               |
 | I — матрица инерции 3×3                                          |
 |                                                                  |
 |                                                                  |
 | Для симметричного тела (шар, куб):                               |
 | L ∥ ω  (момент параллелен угловой скорости)                      |
 |                                                                  |
 | Для несимметричного тела (гантеля под углом):                    |
 | L и ω не параллельны.                                            |
 | Крутишь вокруг одной оси — момент направлен в другую сторону.    |
 | (Поэтому колёса балансируют — убирают недиагональные элементы I) |
 |                                                                  |
 +------------------------------------------------------------------+

 +----------------------------------------------------------------+
 | ПРО ВЕКТОРНОЕ ПОЛЕ                                             |
 +----------------------------------------------------------------+
 |                                                                |
 | Если есть поле векторов v(x,y,z) (например, скорость ветра):   |
 |                                                                |
 | • одна матрица A для всех точек: глобальное преобразование     |
 | A = поворот → всё поле повернулось                             |
 | A = растяжение → всё поле растянулось                          |
 | Физически: сменили систему координат                           |
 |                                                                |
 | • разная матрица A(x,y,z) в каждой точке: локальная деформация |
 | Это поле матриц (далее узнаем: "тензорное поле")               |
 | Пример: тензор деформации в материале под нагрузкой            |
 | В каждой точке своё растяжение/сдвиг                           |
 |                                                                |
 +----------------------------------------------------------------+

 Итог: Матрица — это не просто "таблица чисел", а:
   • Либо преобразование (активное или пассивное)
   • Либо физический закон, связывающий причину и следствие


 Ядро и образ — главные подпространства

 +---------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЯ                                                   |
 +---------------------------------------------------------------+
 |                                                               |
 | Для линейного T: V → W:                                       |
 |                                                               |
 | ядро:    ker(T) = {v ∈ V : T(v) = 0}  (что переходит в ноль)  |
 | образ:   Im(T) = {T(v) : v ∈ V}       (куда попадаем)         |
 |                                                               |
 | Оба являются подпространствами (замкнуты относительно + и ·). |
 |                                                               |
 +---------------------------------------------------------------+

 +--------------------------------------------+
 | ТЕОРЕМА О РАЗМЕРНОСТИ (Rank-Nullity)       |
 +--------------------------------------------+
 |                                            |
 | dim(V) = dim(ker T) + dim(Im T)            |
 | ↑              ↑                           |
 | nullity         rank                       |
 | (дефект)         (ранг)                    |
 |                                            |
 | "Размерность области = потери + результат" |
 |                                            |
 +--------------------------------------------+

 Пример: Проекция T: ℝ³ → ℝ³, T(x,y,z) = (x,y,0)

   ker(T) = {(0,0,z) : z ∈ ℝ} = ось z         dim(ker T) = 1
   Im(T) = {(x,y,0) : x,y ∈ ℝ} = плоскость xy  dim(Im T) = 2

   Проверка: 3 = 1 + 2 ✓

 Геометрическая интуиция:

   V (3-мерное)                    W (целевое пр-во)
   +-------------------+
   |      ╱╲           |
   |     ╱  ╲ ker(T)   |
   |    ╱    ╲ = ось z |           +-----------------+
   |   ╱      ╲        |    T      |                 |
   |  ╱ плоск. ╲       | --------▶ |    Im(T)        |
   | ╱   xy     ╲      |           |  = плоскость    |
   |╱------------╲     |           |                 |
   +-------------------+           +-----------------+

   dim(V) = 3
   dim(ker T) = 1  (что "схлопывается" в 0)
   dim(Im T) = 2   (что "выживает")

   Теорема: 3 = 1 + 2  ✓

   Смысл: Пространство V "расщепляется" на две части:
          - ker T (что теряется)
          - дополнение (что переходит в образ 1-1)

 Связь с системами уравнений:

 +---------+-------------------------------------------+
 | ПОНЯТИЕ | ЧТО ОЗНАЧАЕТ                              |
 +---------+-------------------------------------------+
 | ker(A)  | Решения Ax = 0 (однородная система)       |
 | Im(A)   | Линейная оболочка столбцов A              |
 | rank(A) | Число ненулевых строк в ступенчатой форме |
 +---------+-------------------------------------------+

 +----------------------+-----------------------------------------+
 | СВОЙСТВО T           | УСЛОВИЕ                                 |
 +----------------------+-----------------------------------------+
 | Инъективно (1-1)     | ker(T) = {0}                            |
 | Сюръективно (на)     | Im(T) = W                               |
 | Биективно (изоморф.) | ker={0} и Im=W ⟺ dim V = dim W, det ≠ 0 |
 +----------------------+-----------------------------------------+


Ядро и образ — универсальная структура


 Структура (ker, Im) присутствует для любого морфизма между структурами:

+----------------+--------------+-----------------+-------------------+
| РАЗДЕЛ         | ОПЕРАТОР     | KER             | IM                |
+----------------+--------------+-----------------+-------------------+
| Лин. алгебра   | T: V → W     | ker T ⊂ V       | Im T ⊂ W          |
| Теория групп   | φ: G → H     | ker φ ⊲ G       | Im φ ≤ H          |
| Дифф. формы    | d: Ωᵏ → Ωᵏ⁺¹ | ker d (замкн.)  | Im d (точные)     |
| XXI Дифф. ур-я | L: C∞ → C∞   | ker L (решения) | Im L (достижимые) |
| КМ (физика)    | Ĥ−E          | ker(Ĥ−E)=сост.  | спектр={E: ker≠0} |
+----------------+--------------+-----------------+-------------------+

 Теорема о размерности: dim(V) = dim(ker T) + dim(Im T)

 Когомологии: Hᵏ = ker(dₖ) / Im(dₖ₋₁)

 Собственные значения и собственные векторы

 +---------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ                                                   |
 +---------------------------------------------------------------+
 |                                                               |
 | Ненулевой вектор v называется собственным для T (или A), если |
 |                                                               |
 | T(v) = λv   (или Av = λv)                                     |
 |                                                               |
 | Число λ называется собственным значением.                     |
 |                                                               |
 +---------------------------------------------------------------+

 Геометрический смысл собственных значений:

 +--------------+----------------------+--------------------------------+
 | ЗНАЧЕНИЕ λ   | ГЕОМ. ДЕЙСТВИЕ       | ПРИМЕР                         |
 +--------------+----------------------+--------------------------------+
 | λ > 1        | Растяжение           | λ=2: удлинение вдвое           |
 | 0 < λ < 1    | Сжатие               | λ=0.5: сжатие вдвое            |
 | λ = 1        | Без изменений        | Направление сохранено          |
 | λ = 0        | Коллапс (в 0)        | Проекция уничтожает это напр.  |
 | λ < 0        | Отражение + масштаб  | λ=-1: чистое отражение         |
 | |λ| = 1      | Изометрия/отражение  | Сохраняет длину                |
 +--------------+----------------------+--------------------------------+

 Как найти:

   Av = λv  ⟺  (A − λI)v = 0  ⟺  v ∈ ker(A − λI)

   Чтобы ker ≠ {0}, нужно det(A − λI) = 0.

   Характеристический многочлен: p(λ) = det(A − λI)
   Собственные значения = корни p(λ).

 Пример: A = |3  1|
             |0  2|

   det(A − λI) = det|3−λ   1 | = (3−λ)(2−λ) − 0 = λ² − 5λ + 6
                    | 0   2−λ|

   Корни: λ₁ = 3, λ₂ = 2

   Для λ₁ = 3:  (A−3I)v = 0 → |0  1||v₁| = 0 → v₂ = 0 → v₁ = (1,0)
                              |0 −1||v₂|

   Для λ₂ = 2:  (A−2I)v = 0 → |1  1||v₁| = 0 → v₁ = −v₂ → v₂ = (−1,1)
                              |0  0||v₂|

 Инварианты (не зависят от базиса):

   det(A) = λ₁ · λ₂ · ... · λₙ  (произведение собственных значений)
   tr(A) = λ₁ + λ₂ + ... + λₙ   (сумма собственных значений)

-------------------------------------------------------------------------------
 Диагонализация — выбор "правильного" базиса
-------------------------------------------------------------------------------

 Идея:
   В базисе из собственных векторов матрица становится диагональной.

 +-------------------------------------------------------------------------+
 | ТЕОРЕМА О ДИАГОНАЛИЗАЦИИ                                                |
 +-------------------------------------------------------------------------+
 |                                                                         |
 | Матрица A диагонализуема ⟺ существует базис из собственных векторов.    |
 |                                                                         |
 | Тогда A = PDP⁻¹, где:                                                   |
 |   P = [v₁ | v₂ | ... | vₙ] — матрица из собственных векторов            |
 |   D = diag(λ₁, λ₂, ..., λₙ) — диагональная из собственных значений      |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Зачем это нужно:

 +--------------------------+--------------------------------------------+
 | ЗАДАЧА                   | КАК ПОМОГАЕТ                               |
 +--------------------------+--------------------------------------------+
 | Степени матрицы Aⁿ       | PD^nP⁻¹, где Dⁿ = diag(λ₁ⁿ,...,λₙⁿ)        |
 | Дифференц. уравнения     | eᴬᵗ вычисляется через диагональ            |
 | Анализ устойчивости      | Поведение при t→∞ зависит от |λᵢ|          |
 +--------------------------+--------------------------------------------+

 Условия диагонализуемости:

 +------------------------+----------------------------------------+
 | СИТУАЦИЯ               | ДИАГОНАЛИЗУЕМА?                        |
 +------------------------+----------------------------------------+
 | Все λᵢ различны        | ДА (достаточно, не необходимо)         |
 | Кратные λ, но хватает  | ДА (пример: I, где λ=1 кратности n)    |
 | собственных векторов   |                                        |
 | Не хватает с.в.        | нет → Жорданова форма                  |
 | Пример: A = [0 1; 0 0] | НЕТ (λ=0 кратности 2, только 1 вектор) |
 +------------------------+----------------------------------------+

-------------------------------------------------------------------------------
 Связь с группами
-------------------------------------------------------------------------------

 Обратимые матрицы образуют группу GL(n) — общая линейная группа

   +-----------+------------------+---------------------------------+
   | ПОДГРУППА | УСЛОВИЕ          | ЧТО СОХРАНЯЕТ                   |
   +-----------+------------------+---------------------------------+
   | GL(n)     | det(A) ≠ 0       | Линейную структуру              |
   | SL(n)     | det(A) = 1       | + объём                         |
   | O(n)      | AᵀA = I          | + длины и углы                  |
   | SO(n)     | AᵀA = I, det=1   | + ориентацию                    |
   | U(n)      | A*A = I (компл.) | Эрмитово скалярное произведение |
   | SU(n)     | A*A = I, det=1   | + объём (квант. механика)      |
   +-----------+------------------+---------------------------------+

 det: GL(n) → ℝ* — это гомоморфизм групп
 ker(det) = SL(n) — ядро гомоморфизма

 Связь с группами Ли:
   GL(n), O(n), SO(n), U(n), SU(n) — это всё группы Ли
   (одновременно группы и многообразия)

-------------------------------------------------------------------------------
 Экспонента матрицы — ключ к системам ДУ
-------------------------------------------------------------------------------

 Определение:
 +---------------------------------------------+
 |                                             |
 | e^A = I + A + A²/2! + A³/3! + ... = Σ Aⁿ/n! |
 |                                             |
 | (ряд всегда сходится для любой матрицы A)   |
 |                                             |
 +---------------------------------------------+

 Зачем нужно:
   Система линейных ДУ  ẋ = Ax  имеет решение  x(t) = e^{At}·x(0)

 Вычисление (если A диагонализуема):

   A = PDP⁻¹,  где D = diag(λ₁, λ₂, ..., λₙ)

   e^A = P · diag(e^{λ₁}, e^{λ₂}, ..., e^{λₙ}) · P⁻¹

 Свойства:
   • e^0 = I
   • e^{A+B} = e^A·e^B  только если AB = BA.
   • (e^A)⁻¹ = e^{−A}
   • d/dt e^{At} = A·e^{At}
   • det(e^A) = e^{tr(A)}

 Пример для теплофизики:

   Система из n комнат с температурами T₁, T₂, ..., Tₙ:
   Ṫ = A·T, где A — матрица теплопроводностей

   Решение: T(t) = e^{At}·T(0)

   Собственные значения A (все отрицательные) → скорости затухания
   Собственные векторы A → "моды" системы (какие комнаты греются вместе)

 Связь с группами Ли:
   e^A отображает алгебру Ли gl(n) в группу Ли GL(n)
   Это экспоненциальное отображение — фундамент теории групп Ли


 Один объект — три взгляда
+------------------------+---------------------+------------------------+
| АЛГЕБРА                | ГЕОМЕТРИЯ           | АНАЛИЗ                 |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Матрица A              | Преобразование      | Система линейных       |
| (таблица чисел)        | пространства        | уравнений Ax = b       |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| det(A)                 | Коэффициент         | Условие                |
| (число)                | изменения объёма    | разрешимости           |
|                        | + знак ориентации   | (det≠0 ⟺ ∃! решение)  |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Собственный вектор v   | Инвариантное        | Решение                |
| Av = λv                | направление         | (A−λI)v = 0            |
|                        | (не поворачивается) |                        |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Собственное значение λ | Коэффициент         | Корень характ.         |
|                        | растяжения вдоль v  | многочлена det(A−λI)=0 |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Диагонализация         | Выбор "правильного" | Разделение             |
| A = PDP⁻¹              | базиса (из собств.  | переменных             |
|                        | векторов)           |                        |
|                        |                     |                        |
+------------------------+---------------------+------------------------+

-------------------------------------------------------------------------------
 Формулы для вычислений
-------------------------------------------------------------------------------

 Определитель 2×2:   det|a  b| = ad − bc
                        |c  d|

 Определитель 3×3:   Разложение по первой строке:

   det|a  b  c| = a·det|e  f| − b·det|d  f| + c·det|d  e|
      |d  e  f|        |h  i|        |g  i|        |g  h|
      |g  h  i|

 Обратная 2×2:       |a  b|⁻¹ =   1   | d  −b|
                     |c  d|    ------ |−c   a|
                              ad−bc

 Метод Гаусса:       Приведение к ступенчатому виду элементарными
                     преобразованиями строк

 Собственные значения: решить det(A − λI) = 0

 Собственные векторы: для каждого λ решить (A − λI)v = 0

 Диагонализация: A = PDP⁻¹, где P = [v₁|v₂|…|vₙ] из собств. векторов


 SVD — сингулярное разложение (король разложений)


 Проблема: Диагонализация A = PDP⁻¹ работает только для квадратных матриц,
           и то не для всех (нужен полный набор собственных векторов).

 Решение: SVD работает для любой матрицы m×n!

 +----------------------------------------------------------------------+
 | ТЕОРЕМА (SVD): Любая матрица A ∈ ℝᵐˣⁿ раскладывается как             |
 |                                                                      |
 | A = UΣVᵀ                                                             |
 |                                                                      |
 | где:                                                                 |
 | • U ∈ ℝᵐˣᵐ — ортогональная (UᵀU = I), столбцы = левые синг. векторы  |
 | • Σ ∈ ℝᵐˣⁿ — диагональная, σ₁ ≥ σ₂ ≥ ... ≥ 0 (сингулярные числа)     |
 | • V ∈ ℝⁿˣⁿ — ортогональная (VᵀV = I), столбцы = правые синг. векторы |
 +----------------------------------------------------------------------+

 Геометрический смысл:
   Любое линейное преобразование = поворот U × растяжение Σ × поворот Vᵀ

      +---+   Vᵀ    +---+    Σ     ╱╲      U     ◇
      |   |  ---→   |   |  ---→   ╱  ╲   ---→   ╱ ╲
      +---+ поворот +---+ растяж. ╲  ╱ поворот  ╲ ╱
      квадрат       квадрат        ╲╱            ◇
                                 эллипс       эллипс (повёрнутый)

 Связь с собственными значениями:
   • σᵢ² = собственные значения AᵀA (или AAᵀ)
   • Столбцы V = собственные векторы AᵀA
   • Столбцы U = собственные векторы AAᵀ

 Приложения (почему SVD — "король"):
 +-----------------+----------------------------------------------+
 | ЗАДАЧА          | КАК ИСПОЛЬЗОВАТЬ SVD                         |
 +-----------------+----------------------------------------------+
 | Сжатие данных   | A ≈ Σᵣ σᵢuᵢvᵢᵀ (оставить первые r членов)    |
 | (изображения)   | Ошибка = σᵣ₊₁ (теорема Эккарта-Янга)         |
 +-----------------+----------------------------------------------+
 | PCA             | Главные компоненты = правые синг. векторы V  |
 | (анализ данных) | (для центрированных данных)                  |
 +-----------------+----------------------------------------------+
 | Псевдообращение | A⁺ = VΣ⁺Uᵀ, где Σ⁺ᵢᵢ = 1/σᵢ (для σᵢ ≠ 0)     |
 | (МНК)           | Решение Ax≈b: x = A⁺b                        |
 +-----------------+----------------------------------------------+
 | Ранг матрицы    | rank(A) = число ненулевых σᵢ                 |
 +-----------------+----------------------------------------------+
 | Норма матрицы   | ‖A‖₂ = σ₁ (максимальное сингулярное число)   |
 |                 | ‖A‖_F = √(Σσᵢ²) (норма Фробениуса)           |
 +-----------------+----------------------------------------------+
 | Число обусл-ти  | cond(A) = σ₁/σₙ (чувствительность к ошибкам) |
 +-----------------+----------------------------------------------+

 Сравнение с диагонализацией:
   • Диагонализация: A = PDP⁻¹ (только квадратные, не всегда существует)
   • SVD: A = UΣVᵀ (любые матрицы, всегда существует)

 Частный случай: симметричные положительно определённые
   Для A = Aᵀ > 0:  SVD совпадает с диагонализацией.
   • U = V = P (матрица собственных векторов)
   • σᵢ = λᵢ (сингулярные числа = собственные значения)
   • A = PΛPᵀ = UΣVᵀ — это одно и то же.

   Для симметричных (не обязательно полож. опр.): σᵢ = |λᵢ|


 Приложения

+---------------------+----------------------------------------------------------+
| ОБЛАСТЬ             | КАК ИСПОЛЬЗУЕТСЯ ЛИНЕЙНАЯ АЛГЕБРА                        |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| дифф. уравнения     | y' = Ay → решение y(t) = eᴬᵗy₀                           |
| (устойчивость)      | Re(λ)>0: рост, Re(λ)<0: затухание, Re(λ)=0: колеб. |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| квантовая механика  | Наблюдаемые = эрмитовы операторы (A = A*)                |
|                     | Собств. значения = результаты измерений                  |
|                     | Собств. векторы = состояния                              |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| анализ данных (PCA) | Ковариационная матрица C = (1/n)XᵀX                      |
|                     | Собств. векторы = главные компоненты                     |
|                     | Собств. значения = дисперсия по направлениям             |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| графы и сети        | PageRank = главный собств. вектор                        |
|                     | Спектральная кластеризация = с.в. лапласиана             |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| механика            | Собств. частоты колебаний = √λ                           |
|                     | Моды колебаний = собственные векторы                     |
|                     |                                                          |
+---------------------+----------------------------------------------------------+

-------------------------------------------------------------------------------
 Двойственное пространство v* (краткое введение)
-------------------------------------------------------------------------------

 Определение:
   V* = {φ: V → ℝ | φ линейна} — множество всех линейных функций на V

 Пример: V = ℝ³
   φ(x, y, z) = 2x + 3y − z  — элемент V* (линейная функция)
   Действие: φ(1, 0, 2) = 2·1 + 3·0 − 1·2 = 0

 Факты (для конечномерного V):
   • dim(V*) = dim(V)  Только для конечномерных.
   • Базис V*: функции eⁱ(eⱼ) = δⁱⱼ (1 если i=j, иначе 0)
   • Элемент V* называется ковектором или линейным функционалом

 Для бесконечномерных: dim(V*) может быть больше dim(V).
    Пример: V = ℓ¹ (абсолютно суммируемые: Σ|xₙ|<∞), V* = ℓ∞ (ограниченные посл-ти)

 Зачем:
   • Тензоры живут на V* × ... × V* × V × ... × V
   • Дифференциал df — элемент кокасательного пространства T*ₚM
   • Подробно (Двойственность)

-------------------------------------------------------------------------------
 Связь с другими разделами
-------------------------------------------------------------------------------

 Группы:
   GL(n), O(n), SO(n) — группы матриц
   Теория представлений: группа → матрицы

 Многообразия:
   TₚM — касательное пространство = векторное пространство
   Локально линейная алгебра работает.

 Двойственность:
   V* — двойственное пространство (линейные функционалы на V)
   Строки матрицы ↔ столбцы транспонированной

 Тензоры:
   Тензор ранга 2 = линейное отображение = матрица (в базисе)

 Ряды:
   Функции = векторы бесконечномерного пространства
   Коэффициенты Фурье = координаты в ортонормированном базисе

-------------------------------------------------------------------------------
 Прикладной пример: тепловой баланс системы отопления
-------------------------------------------------------------------------------

 Задача: Здание с 4 комнатами. Известны теплопотери и теплопередача между
 комнатами. Найти температуры в стационарном режиме.

         T₁ ======+          Теплопотери наружу: αᵢ·(Tᵢ − Tнар)
         |        |          Теплообмен между: kᵢⱼ·(Tᵢ − Tⱼ)
    Qотопл₁  T₂ ==+== T₃
         |        |          Тепло от отопления: Qᵢ
         T₄ ======+

 Уравнения баланса (для каждой комнаты):

   Qᵢ = αᵢ(Tᵢ − Tнар) + Σⱼ kᵢⱼ(Tᵢ − Tⱼ)
   "Подвод = потери наружу + теплообмен с соседями"

 Это линейная система. Запишем в матричной форме:

   +                              +   +    +     +              +
   | α₁+k₁₂+k₁₄   −k₁₂   0   −k₁₄ |   | T₁ |     | Q₁ + α₁·Tнар |
   | −k₁₂   α₂+k₁₂+k₂₃  −k₂₃   0  | · | T₂ |  =  | Q₂ + α₂·Tнар |
   |   0    −k₂₃  α₃+k₂₃+k₃₄  −k₃₄|   | T₃ |     | Q₃ + α₃·Tнар |
   | −k₁₄    0    −k₃₄  α₄+k₁₄+k₃₄|   | T₄ |     | Q₄ + α₄·Tнар |
   +                              +   +    +     +              +

                    K · T = Q

 Численный пример:
   α₁ = α₂ = α₃ = α₄ = 100 Вт/К (теплопотери)
   k₁₂ = k₂₃ = k₃₄ = k₁₄ = 50 Вт/К (теплообмен между комнатами)
   Tнар = 0°C, Q₁ = 3000 Вт (отопление только в комнате 1)

   Матрица K:
   +                     +
   | 200  −50    0   −50 |
   | −50  200  −50    0  |
   |   0  −50  200  −50  |
   | −50    0  −50  200  |
   +                     +

   Решение: T = K⁻¹ · Q
   T₁ = 20°C, T₂ = 10°C, T₃ = 5°C, T₄ = 10°C

-------------------------------------------------------------------------------
 Собственные значения — моды релаксации
-------------------------------------------------------------------------------

 Если отключить отопление, температуры будут падать.
 Как именно? Решение: T(t) = Σ cᵢ · vᵢ · e^(−λᵢt)

   λᵢ = собственные значения K  (скорости релаксации)
   vᵢ = собственные векторы K   (моды — как "форма" остывания)

   • Наименьшее λ₁ → самая медленная мода (всё здание вместе)
   • Наибольшее λₙ → самая быстрая мода (выравнивание между комнатами)

 Мораль: Линейная алгебра — это язык тепловых расчётов.
 Матрица теплопроводности + собственные значения = полное понимание системы.


Мы научились складывать векторы и умножать их на числа. Но как умножать
векторы друг на друга? Оказывается, единственного ответа нет — разные
задачи требуют разных произведений. Это ключ к пониманию тензоров.

-------------------------------------------------------------------------------
Произведения векторов — разные вопросы, разные ответы
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Почему столько видов умножения
-------------------------------------------------------------------------------

 Числа: 2 × 3 = 6. Один способ умножения.

 Векторы: Что мы хотим узнать о двух векторах?

   • Насколько сонаправлены?          → Скалярное ·    → число
   • Что перпендикулярно обоим?       → Векторное ×   → вектор
   • Все комбинации компонент?        → Тензорное ⊗   → матрица
   • Какую площадь охватывают?        → Внешнее ∧     → бивектор

 Разные вопросы требуют разных операций.

+-----------------+-----------+-----------------------------------------------+
| ПРОИЗВЕДЕНИЕ    | РЕЗУЛЬТАТ | ВОПРОС / ГЕОМЕТРИЧЕСКИЙ СМЫСЛ                 |
+-----------------+-----------+-----------------------------------------------+
| u · v           | число     | "Насколько u и v сонаправлены?" = |u||v|cos θ |
| u × v           | вектор    | "Что ⊥ обоим?" (только в ℝ³ и ℝ⁷.)            |
| u ⊗ v           | матрица   | "Все комбинации компонент?" (u⊗v)ᵢⱼ = uᵢvⱼ   |
| u ∧ v           | бивектор  | "Какую площадь охватывают?" (любая размерн.)  |
+-----------------+-----------+-----------------------------------------------+

 Главное различие: внутреннее vs внешнее произведение

 +-----------------+---------------------------+-------------------------+
 |                 | ВНУТРЕННЕЕ (·, свёртка)   | ВНЕШНЕЕ (⊗, ∧)          |
 +-----------------+---------------------------+-------------------------+
 | Изменение ранга | УМЕНЬШАЕТ                 | УВЕЛИЧИВАЕТ             |
 |                 | вектор×вектор → скаляр    | вектор×вектор → матрица |
 +-----------------+---------------------------+-------------------------+
 | Смысл           | СОНАПРАВЛЕННОСТЬ          | НОВЫЙ ОБЪЕКТ            |
 |                 | "насколько параллельны"   | в пространстве большей  |
 |                 |                           | размерности             |
 +-----------------+---------------------------+-------------------------+
 | Формула         | aᵢbⁱ (свёртка по индексу) | (a⊗b)ᵢⱼ = aᵢbⱼ          |
 +-----------------+---------------------------+-------------------------+

 Запомнить: Внутреннее — "сжимает", внешнее — "расширяет".

-------------------------------------------------------------------------------
 Почему векторное произведение существует только в ℝ³ и ℝ⁷?
-------------------------------------------------------------------------------

 Это глубокий результат, связанный с алгебрами с делением над ℝ:

   dim 1:  ℝ (вещественные числа)
   dim 2:  ℂ (комплексные числа)
   dim 4:  ℍ (кватернионы) — некоммутативны
   dim 8:  𝕆 (октонионы) — неассоциативны

 и всё. Других алгебр с делением над ℝ не существует (теорема Гурвица).

-------------------------------------------------------------------------------
 А что дальше? (удвоение Кэли-Диксона)
-------------------------------------------------------------------------------

   Dim 16: 𝕊 (седенионы) — есть делители нуля.
           ab = 0, но a ≠ 0 и b ≠ 0
           Также теряется альтернативность

   Можно продолжать удвоение бесконечно (dim 32, 64, ...), но каждый раз
   теряется всё больше свойств. Алгебры с делением кончаются на 𝕆.

 Иерархия потерь:
   ℝ → ℂ:   потеряли упорядоченность
   ℂ → ℍ:   потеряли коммутативность (ab ≠ ba)
   ℍ → 𝕆:   потеряли ассоциативность ((ab)c ≠ a(bc))
   𝕆 → 𝕊:   потеряли отсутствие делителей нуля (ab = 0, a,b ≠ 0)

 Связь с векторным произведением:

   В ℝ³:  u × v связано с кватернионами ℍ
          (умножение мнимых частей кватернионов)

   В ℝ⁷:  u × v связано с октонионами 𝕆
          (умножение мнимых частей октонионов)

 Отличие: В ℝ⁷ векторное произведение не удовлетворяет тождеству Якоби:
   u × (v × w) + v × (w × u) + w × (u × v) ≠ 0

   Следствие: (ℝ⁷, ×) не является алгеброй Ли, в отличие от (ℝ³, ×) = so(3)

 Это подчёркивает уникальность размерностей 1, 2, 3, 4, 7, 8.


 Скалярное произведение — формальное определение

 +------------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: СКАЛЯРНОЕ ПРОИЗВЕДЕНИЕ                                    |
 +------------------------------------------------------------------------+
 |                                                                        |
 | Скалярное произведение на векторном пространстве V (над ℝ) — это       |
 | функция ⟨·,·⟩: V × V → ℝ, удовлетворяющая:                              |
 |                                                                        |
 | (S1) ⟨u, v⟩ = ⟨v, u⟩                         (симметричность)            |
 |                                                                        |
 | (S2) ⟨αu + βv, w⟩ = α⟨u, w⟩ + β⟨v, w⟩        (линейность по 1-му арг.)     |
 |                                                                        |
 | (S3) ⟨v, v⟩ ≥ 0, причём ⟨v, v⟩ = 0 ⟺ v = 0  (положит. определённость)    |
 |                                                                        |
 | Пространство V со скалярным произведением называется Евклидовым        |
 | (или пред-Гильбертовым).                                               |
 |                                                                        |
 +------------------------------------------------------------------------+

 Зачем нужны именно эти аксиомы:
 +---------------+----------------------------------------------+
 | АКСИОМА       | ГЕОМЕТРИЧЕСКИЙ СМЫСЛ                         |
 +---------------+----------------------------------------------+
 | S1 симметрия  | Угол между u и v = угол между v и u          |
 | S2 линейность | Проекция суммы = сумма проекций              |
 | S3 положит.   | Длина ≥ 0, и = 0 только для нулевого вектора |
 +---------------+----------------------------------------------+

 Примеры скалярных произведений:
 +------------------+-----------------------------+
 | ПРОСТРАНСТВО     | ФОРМУЛА ⟨u, v⟩               |
 +------------------+-----------------------------+
 | Стандартное ℝⁿ   | Σᵢ uᵢvᵢ = u₁v₁ + ... + uₙvₙ |
 | С весами         | Σᵢ wᵢuᵢvᵢ, где wᵢ > 0    |
 | Функции на [a,b] | ∫ₐᵇ f(x)g(x) dx             |
 +------------------+-----------------------------+

 Контрпример: ⟨u,v⟩ = u₁v₁ − u₂v₂ — не скалярное произведение.
 Проверка: ⟨(0,1),(0,1)⟩ = −1 < 0 ✗ (это псевдоевклидова метрика из ОТО)

-------------------------------------------------------------------------------
 Цепочка: скалярное произведение → норма → метрика
-------------------------------------------------------------------------------

 Скалярное произведение порождает всю геометрию:

   Скалярное произведение ⟨u, v⟩
            |
            | ‖v‖ = √⟨v, v⟩
            ↓
         Норма ‖·‖ (длина вектора)
            |
            | d(u, v) = ‖u − v‖
            ↓
        Метрика d(·,·) (расстояние между точками)
            |
            ↓
       Топология (понятие близости, открытые множества)

 Важно: Эта цепочка идёт только в одну сторону.

   • Не всякая метрика порождается нормой (пр: дискретная метрика)
   • Не всякая норма порождается скал. произв. (пр: ‖v‖ = max|vᵢ|)

 +-------------------------------------------------------------------------+
 | НЕРАВЕНСТВО КОШИ-БУНЯКОВСКОГО-ШВАРЦА                                    |
 +-------------------------------------------------------------------------+
 |                                                                         |
 |   |⟨u, v⟩| ≤ ‖u‖ · ‖v‖                                                   |
 |                                                                         |
 | Равенство ⟺ u и v пропорциональны (лежат на одной прямой).             |
 |                                                                         |
 | следствие: |cos θ| = |⟨u,v⟩|/(‖u‖‖v‖) ≤ 1  — угол корректно определён.   |
 |                                                                         |
 +-------------------------------------------------------------------------+

 +-------------------------------+
 | НЕРАВЕНСТВО ТРЕУГОЛЬНИКА      |
 +-------------------------------+
 |                               |
 | ‖u + v‖ ≤ ‖u‖ + ‖v‖           |
 |                               |
 | "Кратчайший путь — по прямой" |
 |                               |
 +-------------------------------+


 Ортогональность — геометрия из алгебры

 +----------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ОРТОГОНАЛЬНОСТЬ                                   |
 +----------------------------------------------------------------+
 |                                                                |
 | Векторы u и v ортогональны (перпендикулярны), если ⟨u, v⟩ = 0. |
 | Обозначение: u ⊥ v                                             |
 |                                                                |
 +----------------------------------------------------------------+

 Ключевые факты:
 +-------------------------+--------------------------------+
 | ПОНЯТИЕ                 | ФОРМУЛА / СМЫСЛ                |
 +-------------------------+--------------------------------+
 | Ортогональность u ⊥ v   | ⟨u,v⟩ = 0 ⟺ θ = 90°            |
 | Ортонормированный базис | ⟨eᵢ,eⱼ⟩ = δᵢⱼ (0 или 1)        |
 | Координата в ОНБ        | vᵢ = ⟨v,eᵢ⟩ (просто проекция) |
 +-------------------------+--------------------------------+

 Процесс Грама-Шмидта (любой базис → ортонормированный):
 +-----+---------------------------------+--------------+
 | ШАГ | ОРТОГОНАЛИЗАЦИЯ                 | НОРМИРОВКА   |
 +-----+---------------------------------+--------------+
 | 1   | u₁ = v₁                         | e₁ = u₁/‖u₁‖ |
 | 2   | u₂ = v₂ − ⟨v₂,e₁⟩e₁              | e₂ = u₂/‖u₂‖ |
 | 3   | u₃ = v₃ − ⟨v₃,e₁⟩e₁ − ⟨v₃,e₂⟩e₂    | e₃ = u₃/‖u₃‖ |
 | k   | uₖ = vₖ − Σᵢ₌₁ᵏ⁻¹⟨vₖ,eᵢ⟩eᵢ         | eₖ = uₖ/‖uₖ‖ |
 +-----+---------------------------------+--------------+

-------------------------------------------------------------------------------
 Скалярное произведение — геометрическая интерпретация
-------------------------------------------------------------------------------

 Формула в ℝⁿ:  u · v = u₁v₁ + u₂v₂ + ... + uₙvₙ = Σᵢ uᵢvᵢ

 Геометрия: u · v = |u| × (длина проекции v на u)

              v
             ╱|
            ╱ |
           ╱  |
          ╱   |         u·v = |u| × |v|cos θ
         ╱ θ  |
     ---●-----+----→ u
        +-----+
         проекция = |v|cos θ

 Физика: Работа W = F · s (сила × перемещение в направлении силы)

 Связь с метрикой:
   Скалярное произведение определяет метрику — способ измерять.
     |v|² = v · v  (длина)
     cos θ = (u·v)/(|u||v|)  (угол)

 На многообразии:
   Метрический тензор gᵢⱼ — это скалярное произведение базисных векторов:
   gᵢⱼ = ⟨∂/∂xⁱ, ∂/∂xʲ⟩


 Векторное произведение u × v — только в ℝ³.


 Формула:  u × v = (u₂v₃−u₃v₂, u₃v₁−u₁v₃, u₁v₂−u₂v₁)

 Мнемоника через определитель:

         | i   j   k  |
   u×v = | u₁  u₂  u₃ | = i(u₂v₃−u₃v₂) − j(u₁v₃−u₃v₁) + k(u₁v₂−u₂v₁)
         | v₁  v₂  v₃ |

 Свойства:

 +-----------------------------+-----------------------------------------+
 | СВОЙСТВО                    | СЛЕДСТВИЕ                               |
 +-----------------------------+-----------------------------------------+
 | u × v ⊥ u, u × v ⊥ v        | Результат перпендикулярен обоим         |
 | |u × v| = |u||v|sin θ       | = площадь параллелограмма               |
 | u × v = −(v × u)            | Антикоммутативно.                       |
 | u × u = 0                   | Вектор × себя = 0                       |
 | (u×v)×w ≠ u×(v×w)           | Не ассоциативно.                        |
 +-----------------------------+-----------------------------------------+

 Применения в физике:

 +-------------------+------------+
 | ВЕЛИЧИНА          | ФОРМУЛА    |
 +-------------------+------------+
 | Момент силы       | τ = r × F  |
 | Магнитная сила    | F = qv × B |
 | Линейная скорость | v = ω × r  |
 +-------------------+------------+

 Почему только в ℝ³:
   Результат должен быть вектором той же размерности.
   В ℝ² нет "перпендикулярного направления" (оно было бы в ℝ³)
   В ℝⁿ (n>3) перпендикулярных направлений слишком много (n−2 измерений)

   Математически: dim(∧²ℝⁿ) = n(n−1)/2 = n только при n = 3

 Обобщение: Внешнее произведение ∧ работает в любой размерности.

-------------------------------------------------------------------------------
 Внешнее произведение u ∧ v — работает везде
-------------------------------------------------------------------------------

 Идея: u ∧ v = ориентированная площадь параллелограмма на u и v
 Результат: Бивектор ∈ ∧²V (не вектор)

 Свойства:
 +-----------------------+-----------------------------------+
 | СВОЙСТВО              | ГЕОМЕТРИЧЕСКИЙ СМЫСЛ              |
 +-----------------------+-----------------------------------+
 | u ∧ v = −v ∧ u        | Смена ориентации при перестановке |
 | u ∧ u = 0             | Вырожденный параллелограмм        |
 | (u+v) ∧ w = u∧w + v∧w | Линейность (как площадь)          |
 | (αu) ∧ v = α(u ∧ v)   | Масштабирование площади           |
 +-----------------------+-----------------------------------+

 В координатах: u ∧ v = Σᵢ<ⱼ (uᵢvⱼ − uⱼvᵢ) eᵢ ∧ eⱼ
 Размерность: dim(∧²ℝⁿ) = C(n,2) = n(n−1)/2

 Связь с × в ℝ³: Компоненты совпадают. Но u×v ∈ ℝ³, а u∧v ∈ ∧²ℝ³
 Преобразование: *(u ∧ v) = u × v (звезда Ходжа)

-------------------------------------------------------------------------------
 Важно для инженеров: нормаль vs бивектор
-------------------------------------------------------------------------------

   Инженеры привыкли: поток через поверхность = ∬ F·n dS
   где n — единичная нормаль к поверхности (вектор, торчащий наружу).

   Дифф. формы заменяют это на: ∬ ω  (2-форма на поверхности)
   2-форма = бивектор = "ориентированная площадка касательной плоскости"

   В ℝ³ нормаль и бивектор — двойственные описания одного и того же.
   Звезда Ходжа (*) переводит одно в другое: *(dx∧dy) = dz.

   Но: бивектор честнее, потому что он не требует "окружающего
   пространства". На поверхности в ℝ³ можно указать нормаль (выход в 3D).
   На абстрактном многообразии без вложения — нельзя. А бивектор можно.

 Применения:
 +---------------------+-------------------------------------+
 | ГДЕ                 | КАК ИСПОЛЬЗУЕТСЯ                    |
 +---------------------+-------------------------------------+
 | Дифф. формы         | Интегрирование на многообразиях     |
 | Детерминант         | det = e₁∧e₂∧...∧eₙ (n-мерный объём) |
 | Уравнения Максвелла | Элегантная запись через формы       |
 | Любая размерность   | Работает везде (в отличие от ×)     |
 +---------------------+-------------------------------------+

 Высшие степени: u∧v∧w ∈ ∧³V — ориентированный объём параллелепипеда

-------------------------------------------------------------------------------
 Тензорное произведение u ⊗ v — все комбинации
-------------------------------------------------------------------------------

 Идея: Записать все возможные произведения компонент uᵢvⱼ → матрица

 Пример: u=(u₁,u₂), v=(v₁,v₂) → u⊗v = |u₁v₁  u₁v₂|
                                       |u₂v₁  u₂v₂|

 Свойства:
 +------------------------------+---------------------------------+
 | СВОЙСТВО                     | СЛЕДСТВИЕ                       |
 +------------------------------+---------------------------------+
 | Не коммутативно: u⊗v ≠ v⊗u   | u⊗v = (v⊗u)ᵀ (транспонирование) |
 | Билинейно                    | (αu+βw)⊗v = α(u⊗v)+β(w⊗v)       |
 | rank(u⊗v) = 1 (если u,v ≠ 0) | Любая rank-1 матрица = u⊗v      |
 | Матрица rank r = Σ uᵢ⊗vᵢ     | Это SVD-разложение.             |
 +------------------------------+---------------------------------+

 Применения:
 +---------------------------------+-------------------------------------+
 | ГДЕ                             | КАК                                 |
 +---------------------------------+-------------------------------------+
 | Тензоры из векторов             | Общий метод построения              |
 | Метрика на многообразии         | g = gᵢⱼ dxⁱ⊗dxʲ                     |
 | Квантовая механика              | |ψ⟩ = |ψ₁⟩⊗|ψ₂⟩ (2 частицы)           |
 | Запутанность                    | не всякое ψ = ψ₁⊗ψ₂ .               |
 +---------------------------------+-------------------------------------+


 Сводная таблица произведений
+--------------+-----------+-------------+---------------------------+
| ПРОИЗВЕДЕНИЕ | РЕЗУЛЬТАТ | РАЗМЕРНОСТЬ | ГЛАВНОЕ СВОЙСТВО          |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u · v        | скаляр    | 1           | Симметрично: u·v = v·u    |
| (скалярное)  |           |             | Порождает метрику         |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u × v        | вектор    | 3 (и 7)     | Антисимм: u×v = −v×u      |
| (векторное)  |           |             | Перпендик. обоим          |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u ∧ v        | бивектор  | n(n−1)/2    | Антисимм: u∧v = −v∧u      |
| (внешнее)    |           |             | Обобщение × на любое n    |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u ⊗ v        | матрица   | n²          | Не коммутат: u⊗v = (v⊗u)ᵀ |
| (тензорное)  |           |             | Все комбинации uᵢvⱼ       |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+

 Связь с другими разделами
+------------------+------------------------------------------------+
| РАЗДЕЛ           | КАК ПРОИЗВЕДЕНИЯ ТАМ РАБОТАЮТ                  |
+------------------+------------------------------------------------+
|                  |                                                |
| Многообразия     | ⟨·,·⟩ → метрика gᵢⱼ = ⟨∂/∂xⁱ, ∂/∂xʲ⟩              |
| (метрика)        | Как измерять расстояния на кривых поверхностях |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Многообразия     | ∧ → дифф. формы на многообразии                |
| (интегрирование) | dx∧dy = площадь, dx∧dy∧dz = объём              |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Тензоры          | ⊗ → построение тензоров из векторов            |
|                  | g = gᵢⱼ dxⁱ⊗dxʲ, тензор энергии-импульса       |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Лин. алгебра     | ⟨·,·⟩ → ортогональность, Грам-Шмидт             |
|                  | Ортонормированный базис упрощает вычисления    |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Ряды Фурье       | ⟨f,g⟩ = ∫f(x)g(x)dx — скал. произв. функций     |
|                  | Коэфф. Фурье = проекции на ортонорм. базис     |
|                  |                                                |
+------------------+------------------------------------------------+

 Иерархия пространств:
   Векторное пр-во → [+⟨,⟩] → Евклидово → [+полнота] → Гильбертово


 Прикладной пример: три задачи — три произведения

-------------------------------------------------------------------------------
 Задача 1: работа насоса (скалярное произведение)
-------------------------------------------------------------------------------

   Насос создаёт силу F = (0, 0, −1000) Н (вниз)
   Вода перемещается на d = (0, 0, 5) м (вверх)

   Работа = F · d = 0·0 + 0·0 + (−1000)·5 = −5000 Дж

   Минус означает: сила направлена против движения (насос совершает работу).
   Скалярное произведение отвечает на вопрос: "Сколько энергии?"

-------------------------------------------------------------------------------
 Задача 2: момент на валу (векторное произведение)
-------------------------------------------------------------------------------

   Рукоятка ключа: r = (0.3, 0, 0) м (от оси)
   Приложенная сила: F = (0, 100, 0) Н (перпендикулярно)

   Момент = r × F = (0·0 − 0·100,  0·0 − 0.3·0,  0.3·100 − 0·0)
                   = (0, 0, 30) Н·м

   Момент направлен вдоль оси вращения (ось z).
   Векторное произведение отвечает на вопрос: "Куда и как сильно крутит?"

-------------------------------------------------------------------------------
 Задача 3: расход через сечение (внешнее произведение / площадь)
-------------------------------------------------------------------------------

   Прямоугольное сечение трубы: грани a = (0.5, 0, 0) м, b = (0, 0.3, 0) м

   Площадь сечения = |a × b| = |(0, 0, 0.15)| = 0.15 м²

   Или через внешнее произведение: a ∧ b = 0.15 · (dx∧dy)
   Это 2-форма — объект, который "ест" пару векторов и выдаёт площадь.

   Если скорость потока v = (0, 0, 2) м/с:
   Объёмный расход = v · S = 2 · 0.15 = 0.3 м³/с


 Сводка: какое произведение для какой задачи

   +------------------+--------------+---------------------------------+
   | ВОПРОС           | ПРОИЗВЕДЕНИЕ | ПРИМЕР ИЗ ТЕПЛОФИЗИКИ           |
   +------------------+--------------+---------------------------------+
   | Сколько энергии? | Скалярное ·  | Работа насоса, мощность         |
   | Куда крутит?     | Векторное ×  | Момент на валу, вихрь потока    |
   | Какая площадь?   | Внешнее ∧    | Сечение трубы, поверхность Т/О  |
   | Все комбинации?  | Тензорное ⊗  | Тензор напряжений, проводимости |
   +------------------+--------------+---------------------------------+

Мы видели разные произведения: скалярное даёт число, тензорное даёт матрицу.
Но откуда берётся эта асимметрия — число vs объект? Ответ: скалярное
произведение — это спаривание вектора и ковектора. Что такое ковектор?

Это ведёт к фундаментальной идее двойственности: каждое пространство
имеет "тень" — пространство линейных функций на нём.

===============================================================================
Двойственность — фундаментальная симметрия математики
===============================================================================

-------------------------------------------------------------------------------
 Двойственность как взгляд на пространство
-------------------------------------------------------------------------------

 Каждое пространство V порождает двойственное пространство V* — пространство
 линейных функций на V. Это как "тень" исходного пространства.

   V  = пространство векторов (направления, смещения)
   V* = пространство ковекторов (градиенты, "цены за единицу")

 Два пространства — но связаны глубокой симметрией.
 Эта симметрия проявляется повсюду: в физике, геометрии, алгебре.


Двойственность — одна из самых глубоких идей математики. Прежде чем давать
формальные определения, начнём с физической интуиции.

-------------------------------------------------------------------------------
Физическая интуиция: ковекторы как "цены"
-------------------------------------------------------------------------------

Ключ к пониманию — аналогия с физическими размерностями.

Базисный вектор = Единица измерения

 Что такое базис? Это набор "эталонов", единиц измерения.

   e₁ = "1 метр в направлении x"
   e₂ = "1 секунда"
   e₃ = "1 килограмм"

 Вектор — это величина, измеренная в этих единицах:

   v = 5e₁ + 3e₂ = "5 метров и 3 секунды"

 Числа (5, 3) — это компоненты вектора. Сам вектор v — это физическая
 величина, которая существует независимо от выбора единиц.

-------------------------------------------------------------------------------
 Ковектор = "цена за единицу" (плотность)
-------------------------------------------------------------------------------

 Ковектор ω — это не число и не вектор.
 Ковектор — это функция, которая берёт вектор и выдаёт число.

 Физическая аналогия: цена за единицу.

   ω = "10 рублей за метр"

 Это не число 10 — это правило: "возьми длину в метрах, умножь на 10".

 Как ковектор действует на вектор:

   v = 5 метров
   ω(v) = (10 руб/м) × (5 м) = 50 рублей  ← это уже число.

 Формально:
   ω: V → ℝ,   ω(v) = ωᵢvⁱ = ω₁v¹ + ω₂v² + ...

 Другие примеры "цен":
   • Давление = "сила на единицу площади" [Н/м²]
   • Плотность = "масса на единицу объёма" [кг/м³]
   • Градиент температуры = "изменение T на единицу длины" [К/м]

 Все эти величины — ковекторы: они "едят" экстенсивную величину
 (площадь, объём, смещение) и выдают число.

-------------------------------------------------------------------------------
 Почему компоненты преобразуются противоположно
-------------------------------------------------------------------------------

 Перейдём от метров к сантиметрам: новая единица e'₁ = e₁/100.

 Вектор "5 метров":
   Старые единицы: v = 5 м = 5 e₁
   Новые единицы:  v = 500 см = 500 e'₁

   Компонента увеличилась в 100 раз.
   (Единица стала мельче → нужно больше единиц)

 Ковектор "10 рублей за метр":
   Старые единицы: ω = 10 руб/м
   Новые единицы:  ω = 0.1 руб/см

   Компонента уменьшилась в 100 раз.
   (Единица стала мельче → цена за единицу тоже меньше)

 Проверка — результат не зависит от единиц:
   ω(v) = 10 руб/м × 5 м = 50 руб
   ω(v) = 0.1 руб/см × 500 см = 50 руб  ✓

 Это и есть ключевое свойство:
   ω(v) — инвариант, не зависит от выбора единиц (базиса).
   Чтобы это работало, компоненты ω и v должны меняться противоположно.

-------------------------------------------------------------------------------
 Касательное пространство — правильная картинка
-------------------------------------------------------------------------------

 Рассмотрим параболоид z = f(x,y) = x² + y².
 В точке p = (1, 0, 1) касательная плоскость TₚM — это буквально
 плоскость, которая касается поверхности в этой точке.

           z
           ↑          касательная плоскость в p
           |          z = 2x − 1  (отмечена ≡≡≡)
           |
           |            ≡≡≡≡≡≡≡≡≡≡≡≡
           |           ≡          ●≡  ← точка p = (1, 0, 1)
           |        ╱            ╱
           |       ╱ параболоид ╱
           |      ╱  z = x²+y² ╱
           |     ╱____________╱
           |    ╱            ╱
           |   ╲____________╱  ← кривая пересечения
           |    ╲__________╱      с плоскостью z = 1
           +-------────────+-----→ x
          ╱                |
         ╱                 p-проекция на xy: (1, 0)
        y
                   (для наглядности параболоид показан только сверху)

 Уравнение касательной плоскости:
   z = f(1,0) + fₓ(1,0)·(x−1) + fᵧ(1,0)·(y−0)
   z = 1 + 2·(x−1) + 0·(y−0) = 2x − 1

 Вектор в TₚM — это стрелка, лежащая в касательной плоскости.
 Градиент ∇f — одна из таких стрелок (направление наибольшего роста).

-------------------------------------------------------------------------------
 Кокасательное пространство — что это?
-------------------------------------------------------------------------------

 T*ₚM — это пространство всех "цен за единицу смещения" в точке p.

 Если TₚM отвечает на вопрос "куда можно пойти?" (направления),
 то T*ₚM отвечает на вопрос "сколько стоит пойти?" (линейные функции).

 Конкретно для параболоида в точке p = (1, 0, 1):

 Дифференциал df — это ковектор, который говорит:
 "Если сместишься на вектор v, функция f изменится на df(v)".

   df = fₓ dx + fᵧ dy = 2dx + 0dy = 2dx

 Возьмём вектор v = (3, 4) в касательной плоскости.
   df(v) = 2·3 + 0·4 = 6

 Это значит: при смещении на v функция f возрастёт примерно на 6.

 Геометрически: df — это "линии уровня с разметкой".
 df(v) = сколько линий уровня пересекает вектор v.

     ==============  линии уровня f = const
     ==============
        →v          вектор пересекает несколько линий
     ==============
     ==============

-------------------------------------------------------------------------------
 Градиент vs дифференциал — стрелка vs разметка
-------------------------------------------------------------------------------

 ∇f (градиент) — вектор:
   • Живёт в касательном пространстве TₚM
   • Это стрелка, указывающая направление наибольшего роста f
   • Компоненты: (∇f)ⁱ = gⁱʲ ∂f/∂xʲ  (нужна метрика)
   • Размерность: [единицы f / единицы длины], но это вектор

 Df (дифференциал) — ковектор:
   • Живёт в кокасательном пространстве T*ₚM
   • Это функция: "насколько изменится f при смещении на v"
   • Компоненты: (df)ᵢ = ∂f/∂xⁱ  (метрика не нужна)
   • Размерность: [единицы f / единицы длины], но это ковектор

 Связь:
   df(v) = ⟨∇f, v⟩ = g(∇f, v)
   ∇f = "поднятый" df с помощью метрики: (∇f)ⁱ = gⁱʲ(df)ⱼ

 Почему путают:
   В евклидовом пространстве с ортонормированным базисом gⁱʲ = δⁱʲ,
   поэтому компоненты ∇f и df численно совпадают.
   Но концептуально это разные объекты.

   ∇f — стрелка (направление)
   df — разметка (функция на направлениях)

 Ключевое: df существует всегда (для дифференцируемой f).
   ∇f существует только если задана метрика g.
   Без метрики можно говорить о df, но не о ∇f.

-------------------------------------------------------------------------------
 Двойственный базис = цены за базисные единицы
-------------------------------------------------------------------------------

 Если {e₁, e₂, ..., eₙ} — базис V (единицы измерения),
 то двойственный базис {ε¹, ε², ..., εⁿ} — это "цены":

   ε¹ = "1 рубль за единицу e₁, 0 за остальные"
   ε² = "1 рубль за единицу e₂, 0 за остальные"

 Формально:
   εⁱ(eⱼ) = δⁱⱼ = { 1, если i = j
                  { 0, если i ≠ j

 Тогда εⁱ "выбирает" i-ю компоненту вектора:
   v = v¹e₁ + v²e₂ + ... + vⁿeₙ
   ε²(v) = v²  ← вторая компонента

 Пример:
   Базис: e₁ = "1 метр", e₂ = "1 секунда"
   Двойственный базис: ε¹ = "выбрать метры", ε² = "выбрать секунды"
   Вектор: v = (5 м, 3 с) = 5e₁ + 3e₂
   ε¹(v) = 5,  ε²(v) = 3

 На многообразии:
   Базис TₚM: {∂/∂x, ∂/∂y, ...} — направления координатных линий
   Двойственный базис T*ₚM: {dx, dy, ...} — дифференциалы координат
   dx(∂/∂y) = 0,  dx(∂/∂x) = 1


 Итоговая таблица: вектор vs ковектор
+-----------------------+-------------------------+---------------------------+
|                       | ВЕКТОР v                | КОВЕКТОР ω                |
+-----------------------+-------------------------+---------------------------+
| Физ. аналогия         | Количество              | Цена за единицу           |
|                       | (5 метров)              | (10 руб/метр)             |
+-----------------------+-------------------------+---------------------------+
| Размерность           | [м], [с], [кг]          | [1/м], [1/с], [1/кг]      |
+-----------------------+-------------------------+---------------------------+
| Где живёт             | Касательное TₚM         | Кокасательное T*ₚM        |
+-----------------------+-------------------------+---------------------------+
| Геом. образ           | Стрелка                 | Разметка (линии уровня)   |
+-----------------------+-------------------------+---------------------------+
| При измельчении       | Компоненты растут       | Компоненты падают         |
| единиц измерения      | (м→см: ×100)            | (м→см: ÷100)              |
+-----------------------+-------------------------+---------------------------+
| Примеры               | Скорость, смещение,     | Дифференциал df,          |
|                       | градиент ∇f             | импульс p, давление       |
+-----------------------+-------------------------+---------------------------+
| Индекс                | Верхний: vⁱ             | Нижний: ωᵢ                |
+-----------------------+-------------------------+---------------------------+
| Базис                 | {∂/∂x¹, ∂/∂x², ...}     | {dx¹, dx², ...}           |
+-----------------------+-------------------------+---------------------------+
| Произведение          |       ω(v) = ωᵢvⁱ = ЧИСЛО (инвариант)              |
+-----------------------+-------------------------+---------------------------+

-------------------------------------------------------------------------------
 Примеры ковекторов в физике
-------------------------------------------------------------------------------

 1. дифференциал функции df
    "Изменение f на единицу смещения"
    df(v) = насколько f изменится при смещении на v

 2. импульс p в механике
    p = ∂L/∂q̇ — это ковектор, не вектор.
    Работа = p·v = pᵢvⁱ — должна быть скаляром (числом)
    Поэтому если v — вектор, то p — ковектор

 3. волновой ковектор k
    Фаза волны φ = k·x = kᵢxⁱ — должна быть скаляром
    k задаёт "направление" через поверхности равной фазы

 4. давление, напряжение
    "Сила на единицу площади" — цена за площадь

 Общий принцип:
    Если величина A·B должна быть инвариантом (числом),
    и A — вектор, то B — ковектор.

-------------------------------------------------------------------------------
Двойственность — что это такое
-------------------------------------------------------------------------------

 Двойственность — определение и применения


 Два способа описать одно и то же:

   Точки пространства              Функции на пространстве
   -----------------               -----------------------
   "Где это находится?"            "Что можно измерить?"

 Пример 1: Карта местности
   • Точки на карте (места)
   • Изолинии высот (функции высоты)
   Одна и та же гора описывается и точками вершины, и линиями уровня.

 Пример 2: Вектор vs линейная функция
   • Вектор v = (3, 4) — "стрелка" в пространстве
   • Функция φ(x,y) = 3x + 4y — "измеритель", даёт число для любой точки

   Важно: Отождествление v ↔ φ требует скалярного произведения (метрики).
   Формула: φ(u) = ⟨v, u⟩. Без метрики вектор и ковектор — разные объекты.
   Изоморфизм V ≅ V* (теорема Рисса-Фреше) существует только в Гильбертовых
   пространствах. В общем случае V* ≠ V как структуры.

 Пример 3: Время и частота
   • Сигнал во времени: f(t)
   • Спектр (частоты): f̂(ω)
   Преобразование Фурье — переход между двойственными описаниями

 Ключевая идея:
   Изучать пространство = изучать функции на нём
   Эти два подхода эквивалентны и дополняют друг друга

-------------------------------------------------------------------------------
 Что такое двойственность
-------------------------------------------------------------------------------

 Двойственность — это соответствие между двумя математическими структурами,
 при котором:

   • Каждому объекту A соответствует "двойственный" объект A*
   • Каждой операции соответствует "двойственная" операция
   • (A*)* ≅ A (двойственное к двойственному = исходное)

 Глубокий смысл:
   Пространство и функции на нём — это равноправные описания.
   Можно изучать точки, а можно изучать "тесты" (что можно измерить).


-------------------------------------------------------------------------------
Двойственное векторное пространство
-------------------------------------------------------------------------------

 Определение: двойственное пространство


 Пусть V — векторное пространство над полем F.

 Двойственное пространство V* = Hom(V, F) — это множество всех
 линейных функционалов на V:

   V* = {φ: V → F | φ линейна}

 Структура:
   • (φ + ψ)(v) = φ(v) + ψ(v)
   • (αφ)(v) = α·φ(v)

 V* само является векторным пространством.

-------------------------------------------------------------------------------
 Двойственный базис
-------------------------------------------------------------------------------

 Пусть {e₁, ..., eₙ} — базис V.

 Двойственный базис {e¹, ..., eⁿ} пространства V* определяется:

   eⁱ(eⱼ) = δⁱⱼ = { 1, если i = j
                  { 0, если i ≠ j

 Свойства:
   • dim(V*) = dim(V) только для конечномерных ( для контрпримера)
   • Любой φ ∈ V* раскладывается: φ = φ(eᵢ)·eⁱ = φᵢeⁱ
   • Действие на вектор: φ(v) = φᵢvⁱ (свёртка)

 Пример: V = ℝ³ с базисом e₁ = (1,0,0), e₂ = (0,1,0), e₃ = (0,0,1)

   e¹(x,y,z) = x       (проекция на первую координату)
   e²(x,y,z) = y       (проекция на вторую координату)
   e³(x,y,z) = z       (проекция на третью координату)

-------------------------------------------------------------------------------
 Канонический изоморфизм V ≅ V**
-------------------------------------------------------------------------------

 Для конечномерных пространств существует канонический изоморфизм:

   ι: V → V**
   ι(v)(φ) = φ(v)

 "Вектор v — это функционал на функционалах, который вычисляет их на v"

 Важно:
   • V ≅ V* требует выбора базиса (или скалярного произведения)
   • V ≅ V** каноничен (не требует выбора)

 В бесконечномерном случае:
   • Для банаховых пространств: V ↪ V** (вложение, не изоморфизм)
   • V = V** называется рефлексивным пространством
   • Lᵖ рефлексивно при 1 < p < ∞, но L¹ и L∞ — нет


-------------------------------------------------------------------------------
Двойственность в разных областях
-------------------------------------------------------------------------------

 Предварительные пояснения


 В таблице ниже встречаются термины, которые стоит пояснить:

 Hₖ(X) — гомологии — алгебраические инварианты, считающие "дырки" в простр.
   H₀ считает компоненты связности (сколько "кусков")
   H₁ считает "тоннели" (можно ли обойти и вернуться нетривиально)
   H₂ считает "полости" (замкнутые пустоты внутри)
   Формально: Hₖ = ker(∂ₖ)/Im(∂ₖ₊₁) — "циклы, не являющиеся границами"

 Hᵏ(X) — когомологии — двойственные к гомологиям (функции на циклах)
   Когомологии де Рама: классы замкнутых форм ω (dω=0) по модулю точных

   Интуиция через потенциал: замкнутая форма — это поле, которое локально
   выглядит как градиент (можно найти потенциал на маленьком куске). Точная
   форма — это поле, которое глобально является градиентом (потенциал
   существует везде). Когомологии измеряют препятствия (дырки), мешающие
   локальному потенциалу стать глобальным.

 Спаривание Кронекера: ⟨·,·⟩: Hᵏ(X) × Hₖ(X) → ℝ
   Интуитивно: когомология "измеряет" гомологию — интеграл формы по циклу

 S¹ = {z ∈ ℂ : |z| = 1} — единичная окружность в комплексной плоскости

-------------------------------------------------------------------------------
 Таблица двойственностей
-------------------------------------------------------------------------------

 Важно: Это разные виды двойственности, объединённые общим паттерном.

 +--------------------+-------------------------------------+
 | ТИП ДВОЙСТВЕННОСТИ | ПРИМЕРЫ ИЗ ТАБЛИЦЫ НИЖЕ             |
 +--------------------+-------------------------------------+
 | Алгебраическая     | V ↔ V*, строки ↔ столбцы            |
 | (лин. алгебра)     |                                     |
 +--------------------+-------------------------------------+
 | Понтрягина         | G ↔ Ĝ (группа ↔ группа характеров)  |
 | (топ. группы)      |                                     |
 +--------------------+-------------------------------------+
 | Пуанкаре           | Hₖ ↔ Hⁿ⁻ᵏ (гомологии ↔ когомологии) |
 | (топология)        |                                     |
 +--------------------+-------------------------------------+
 | Категорная         | F ↔ Fᵒᵖ (ковариант ↔ контравариант) |
 | (теория категорий) |                                     |
 +--------------------+-------------------------------------+

 Общее: всюду есть спаривание ⟨·,·⟩ → число. Но детали существенно разные.

+-------------------+---------------------+--------------------------------+
| ОБЪЕКТ            | ДВОЙСТВЕННЫЙ        | СВЯЗУЮЩЕЕ ОТОБРАЖЕНИЕ          |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Вектор v ∈ V      | Ковектор φ ∈ V*     | φ(v) ∈ F (спаривание)          |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Строка матрицы    | Столбец матрицы     | Транспонирование Aᵀ            |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Точка x ∈ X       | Функция f: X → ℝ    | f(x) (значение в точке)        |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Абелева группа G  | Группа характеров   | χ: G → S¹ (гомоморфизм         |
|                   | Ĝ = Hom(G, S¹)      | в единичную окружность)        |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Время t           | Частота ω           | Фурье: e^{iωt}                 |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Положение q       | Импульс p           | Гамильтонова механика          |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| TₚM (касательное) | T*ₚM (кокасат.)     | df(v) = v(f)                   |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Hₖ(X) (гомологии) | Hᵏ(X) (когомологии) | ⟨ω, c⟩ = ∫_c ω (интеграл)        |
| "циклы"           | "формы"             |                                |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| ∪ (объединение)   | ∩ (пересечение)     | Законы де Моргана:             |
| ∨ (или)           | ∧ (и)               | ¬(A∪B) = ¬A ∩ ¬B               |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Точка (в проект.  | Гиперплоскость      | Точка ↔ мн-во прямых через неё |
| геометрии)        |                     |                                |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Функтор F: C → D  | Контравар. функтор  | F(f: A→B) даёт F(f): F(B)→F(A) |
| (ковариантный)    | F: Cᵒᵖ → D          | (стрелка разворачивается)      |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+

 Главная идея двойственности

 Во всех примерах выше один объект "измеряет" другой через спаривание:

   ⟨двойственный, исходный⟩ → число

 Это как термометр и температура, линейка и длина, весы и масса.
 Двойственный объект — это "измерительный прибор" для исходного.


-------------------------------------------------------------------------------
Двойственность Понтрягина
-------------------------------------------------------------------------------

 Пояснение: Что такое "локально компактная" группа

 Локально компактная группа — это топологическая группа (группа +
 топология, согласованные друг с другом), в которой каждая точка имеет
 компактную окрестность.

 Компактность — ограниченность + замкнутость (в ℝⁿ). Интуитивно: можно
 "покрыть конечным числом маленьких шаров".

 Примеры локально компактных групп:
   • ℝ, ℝⁿ — да (любая точка имеет замкнутый шар вокруг)
   • ℤ — да (дискретная топология, каждая точка — сама компакт)
   • S¹ — да (компактна целиком)
   • GL(n,ℝ) — да (открытое подмножество ℝⁿ²)

 Примеры нелокально компактных:
   • Бесконечномерные банаховы пространства (единичный шар не компактен)

 Зачем это нужно:
   На локально компактных группах существует мера Хаара (инвариантная
   мера), что позволяет интегрировать и определять преобразование Фурье.

-------------------------------------------------------------------------------
 Определение: двойственная группа
-------------------------------------------------------------------------------

 Для локально компактной абелевой группы G её двойственная группа:

   Ĝ = Hom(G, S¹) = {χ: G → S¹ | χ непрерывный гомоморфизм}

 Элементы Ĝ называются характерами группы G.

 Теорема Понтрягина:
   Для локально компактной абелевой группы G: Ĝ̂ ≅ G


 Примеры двойственности Понтрягина
+----------+----------------+------------------------------+
| ГРУППА G | ДВОЙСТВЕННАЯ Ĝ | ХАРАКТЕРЫ                    |
+----------+----------------+------------------------------+
|          |                |                              |
| ℤ        | S¹ ≅ ℝ/ℤ        | χₜ(n) = e^{2πint}, t ∈ [0,1) |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| S¹ ≅ ℝ/ℤ | ℤ               | χₙ(t) = e^{2πint}, n ∈ ℤ     |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℝ        | ℝ              | χ_ξ(x) = e^{2πiξx}, ξ ∈ ℝ    |
|          |                | (самодвойственная)          |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℤ/nℤ      | ℤ/nℤ           | χₖ(m) = e^{2πikm/n}          |
|          |                | (самодвойственная)          |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℝⁿ       | ℝⁿ             | χ_ξ(x) = e^{2πi⟨ξ,x⟩}          |
|          |                |                              |
+----------+----------------+------------------------------+

-------------------------------------------------------------------------------
 Связь с преобразованием Фурье
-------------------------------------------------------------------------------

 Главная мысль: преобразование Фурье — это и есть переход к двойственной
 Группе. Это не аналогия, это буквально одно и то же.

   • Время t живёт в группе ℝ
   • Частота ω живёт в двойственной группе ℝ̂ ≅ ℝ
   • Фурье-образ f̂(ω) = "координаты функции в базисе характеров"

 Тонкость: Изоморфизм ℝ̂ ≅ ℝ не канонический — он зависит от выбора
 нормировки (2π в экспоненте). Это как V* ≅ V: верно, но требует выбора.
 Разные учебники используют e^{iωt}, e^{2πiξt} или e^{-iωt} — отсюда
 путаница с коэффициентами 2π в формулах Фурье.

 Когда инженер делает БПФ (быстрое преобразование Фурье), он неявно
 пользуется двойственностью Понтрягина для группы ℤ/nℤ.

 Преобразование Фурье — это разложение функции по характерам:

   f̂(ξ) = ∫_G f(x) χ_ξ(x)⁻¹ dx

 Таблица соответствий:

   +-----------------+---------------------+-----------------------+
   | ГРУППА          | ФУРЬЕ               | ПРИМЕНЕНИЕ            |
   +-----------------+---------------------+-----------------------+
   | ℝ               | Обычное Фурье       | Обработка сигналов    |
   | S¹              | Ряды Фурье          | Периодические функции |
   | ℤ               | DTFT                | Дискретные сигналы    |
   | ℤ/nℤ            | DFT (БПФ)           | Цифровая обработка    |
   | Конечная группа | Теория представлен. | Химия, физика         |
   +-----------------+---------------------+-----------------------+


-------------------------------------------------------------------------------
Теорема Гельфанда-Наймарка
-------------------------------------------------------------------------------

 Пространство ↔ алгебра функций


 Теорема (Гельфанд-Наймарк):

   Компактное хаусдорфово пространство X полностью определяется
   алгеброй непрерывных функций C(X).

   X ↔ C(X)    (эквивалентность категорий)

 Следствие:
   Можно изучать пространство X, изучая функции на нём.
   Это основа некоммутативной геометрии.

 Обобщение (некоммутативная геометрия):
   Некоммутативные C*-алгебры = "функции на некоммутативных пространствах"
   Квантовая механика = некоммутативная геометрия фазового пространства


-------------------------------------------------------------------------------
Физический смысл двойственности
-------------------------------------------------------------------------------

 Положение ↔ импульс

+--------------------+------------------------+-------------------------------+
|                    | ПОЛОЖЕНИЕ q            | ИМПУЛЬС p                     |
+--------------------+------------------------+-------------------------------+
| Смысл              | "Где?"                 | "Куда движется?"              |
+--------------------+------------------------+-------------------------------+
| Математически      | q ∈ Q (конфигурация)   | p ∈ T*_qQ (кокасательное)     |
+--------------------+------------------------+-------------------------------+
| Квант. механика    | ψ(q) — волн. функция   | ψ̃(p) = F[ψ(q)] — Фурье        |
+--------------------+------------------------+-------------------------------+
| Неопределённость   |                    Δq · Δp ≥ ℏ/2                       |
+--------------------+------------------------+-------------------------------+

 Аналогично: Время ↔ Энергия (ΔE·Δt ≥ ℏ/2)


 Резюме: два способа смотреть на пространство

   +-------------------------------------------------------------+
   |                                                             |
   | ПРОСТРАНСТВО                      ФУНКЦИИ НА НЁМ            |
   | (точки, объекты)                  (измерения, тесты)        |
   |                                                             |
   | X            ◄==========►           C(X)                    |
   |                                                             |
   | • Точки x ∈ X                    • Функции f: X → ℝ         |
   | • Подмножества                   • Идеалы                   |
   | • Отображения X → Y              • Гомоморфизмы C(Y) → C(X) |
   | (направление обратное)                                     |
   |                                                             |
   +-------------------------------------------------------------+

 Оба описания эквивалентны.
 Выбор зависит от задачи и удобства.

-------------------------------------------------------------------------------
 Прикладной пример: двойственность в термодинамике
-------------------------------------------------------------------------------

 Термодинамика полна двойственных пар — это не совпадение.

   +-----------------+------------------+------------+
   | ЭКСТЕНСИВНАЯ    | ИНТЕНСИВНАЯ      | СВЯЗЬ      |
   | (аддитивная)    | (измеритель)     |            |
   +-----------------+------------------+------------+
   | Объём V         | Давление p       | δW = −p dV |
   | Энтропия S      | Температура T    | δQ = T dS  |
   | Кол-во вещ-ва n | Хим. потенциал μ | δG = μ dn  |
   | Заряд q         | Потенциал φ      | δW = φ dq  |
   +-----------------+------------------+------------+

 Математический смысл:

   Экстенсивные величины = координаты пространства состояний
   Интенсивные величины = функции на этом пространстве (ковекторы)

   Работа/теплота = спаривание ⟨p, dV⟩, ⟨T, dS⟩
   Это в точности действие ковектора на вектор.

 Преобразование Лежандра:

   Переход между описаниями: U(S,V) ↔ H(S,p) ↔ F(T,V) ↔ G(T,p)

   Это смена базиса между двойственными переменными.

   • U(S,V) — внутренняя энергия (естественные: S, V)
   • H(S,p) = U + pV — энтальпия (заменили V на p)
   • F(T,V) = U − TS — свободная энергия (заменили S на T)
   • G(T,p) = U + pV − TS — потенциал Гиббса (заменили S→T, V→p)

 Практический смысл:

   • При p = const удобна энтальпия H (насосы, компрессоры)
   • При T = const удобна свободная энергия F (изотермические процессы)
   • При T, p = const удобен потенциал Гиббса G (химические реакции)


 Вывод: Двойственность — не абстракция, а рабочий инструмент.
 Термодинамические потенциалы — это выбор удобного описания
 для конкретной задачи (что фиксировано: T или S? p или V?)

-------------------------------------------------------------------------------
Дельта-функция — двойственность в действии
-------------------------------------------------------------------------------

 Проблема: Что такое "точечный заряд" или "мгновенный импульс"?


 Инженеры постоянно используют "дельта-функцию" δ(x):
   • Точечный заряд: ρ(x) = q·δ(x − x₀)
   • Импульсная сила: F(t) = P·δ(t − t₀)
   • Начальное условие: u(x,0) = δ(x)

 Формально пишут:
   δ(x) = { 0, x ≠ 0
          { ∞, x = 0     и     ∫δ(x)dx = 1

 Но это не функция. Нет функции со значением ∞ в точке и интегралом 1.


 Решение: δ — это функционал (элемент двойственного пространства)


 Правильное определение:

   δ: C∞₀(ℝ) → ℝ,    δ[φ] = φ(0)

 Δ — это линейный функционал, который берёт тестовую функцию φ
 и возвращает её значение в нуле.

 "Интеграл" ∫δ(x)φ(x)dx понимается как δ[φ] = φ(0).

 Связь с двойственностью:
   • Пространство пробных (тестовых) функций:
     𝒟(ℝ) = C∞₀(ℝ) = {φ: гладкие с компактным носителем}
     (φ обращается в 0 вне некоторого ограниченного интервала)
   • Двойственное пространство: 𝒟'(ℝ) = {обобщённые функции/распределения}
   • δ ∈ 𝒟'(ℝ) — элемент двойственного пространства.

   Другой вариант: класс Шварца 𝒮(ℝ) — быстро убывающие функции.
   Тогда 𝒮'(ℝ) — умеренные распределения (включая δ).

 Производная δ' тоже функционал:
   δ'[φ] = −φ'(0)    (интегрирование по частям)

-------------------------------------------------------------------------------
 Практические свойства
-------------------------------------------------------------------------------

 ∫ f(x)δ(x−a)dx = f(a)         "выбирает" значение f в точке a

 ∫ f(x)δ'(x−a)dx = −f'(a)       "выбирает" производную в точке a

 Важно: Эти формулы имеют смысл только для гладких (пробных) функций f.
     Применять δ к произвольной функции из L² некорректно — у таких
     функций "значение в точке" не определено (только класс эквивалентности).

 δ(ax) = (1/|a|)δ(x)           масштабирование аргумента

 xδ(x) = 0                     x·0 = 0 везде, включая x=0

 Фурье-образ:
   F[δ(x)](ω) = 1               δ(x) ↔ const
   F[1](ω) = 2πδ(ω)             const ↔ δ(ω)

 Свёртка:
   f * δ = f                    δ — нейтральный элемент свёртки
   f * δ' = f'                  дифференцирование через свёртку


 Запрещённые операции с δ


 В теории обобщённых функций (распределений Шварца) нельзя:

   • δ(x)·δ(x) = δ²(x) — не определено.
   • δ(x)·|x|⁻¹ — не определено.
   • Любые нелинейные операции с δ

 Почему: Произведение двух распределений в общем случае не определено.
 Распределения — это линейные функционалы, а произведение
 δ(x)·δ(x) потребовало бы "значение δ в точке", которого нет.

 Где это проблема:
   • Квантовая теория поля: "расходимости" = попытки вычислить δ²
   • Нелинейные уравнения с сингулярными данными
   • Возведение сигнала в квадрат (мощность сигнала с δ-импульсом)

 Что можно: Линейные операции (сложение, дифференцирование, свёртка с
 гладкой функцией) — всё это корректно определено.

-------------------------------------------------------------------------------
 Применения в инженерии
-------------------------------------------------------------------------------

 Импульсная характеристика:
   Линейная система L с входом u(t) и выходом y(t) = L[u]
   Импульсная характеристика: h(t) = L[δ(t)]
   Тогда: y(t) = (h * u)(t) = ∫ h(τ)u(t−τ)dτ

 Передаточная функция:
   H(s) = L[h(t)]  (преобразование Лапласа импульсной характеристики)
   Если H(s) = 1/(s+a), то h(t) = e^{−at}

 Функция Грина:
   Решение уравнения LG(x,ξ) = δ(x−ξ) называется функцией Грина
   Решение Lu = f: u(x) = ∫ G(x,ξ)f(ξ)dξ

Мы познакомились с двойственностью: V и V*. Теперь можно строить объекты,
которые "едят" несколько векторов и ковекторов одновременно. Это тензоры —
мультилинейные функции на произведениях V и V*.

Тензоры — язык физики: напряжения, деформации, электромагнитное поле.

===============================================================================
Тензоры — мультилинейные объекты на пространствах
===============================================================================

Тензор — это кульминация темы "объект vs наблюдатель".

Тензор — это объект, которому безразличен выбор наблюдателя.

Вектор существует независимо от базиса. Но записать его числами можно только
выбрав базис — то есть став "наблюдателем". Разные наблюдатели запишут один
вектор разными числами. Закон преобразования компонент — это правило пересчёта
между языками разных наблюдателей.

Тензор — это обобщение: объект, который "ест" несколько векторов и ковекторов
и выдаёт число. Это число — инвариант, одинаковый для всех наблюдателей.
Компоненты тензора (числа в таблице) меняются при смене базиса, но по строгому
закону, гарантирующему, что результат вычисления останется тем же.

Это не абстрактная математика — это язык физики. Напряжение в материале,
метрика пространства-времени, электромагнитное поле — всё это тензоры. Они
описывают реальность, которая не зависит от того, как мы решили её записать.

Главная ошибка: путать тензор (геометрический объект) с его компонентами
(числами в конкретном базисе). Матрица 3×3 может быть записью совершенно
разных тензоров — или не быть тензором вообще.

Ключевой принцип: тензор не меняется при смене координат — меняется наше
описание (компоненты), чтобы компенсировать смену линейки.

 Тензоры как взгляд на пространство


 Тензоры описывают, как свойства пространства меняются от точки к точке
 и от направления к направлению.

   • Скаляр (тензор ранга 0): температура T(x) — одно число в каждой точке
   • Вектор (ранг 1): скорость v(x) — направление в каждой точке
   • Тензор (ранг 2): напряжения σᵢⱼ(x) — зависят от точки и от плоскости

 Тензоры — язык описания анизотропии: когда пространство "разное" в разных
 направлениях (теплопроводность кристалла, упругость композита).


Теперь, когда мы понимаем двойственность, можем определить тензоры.

-------------------------------------------------------------------------------
Зачем нужны тензоры — мотивация
-------------------------------------------------------------------------------

 Зачем вообще менять систему координат? — мотивация


 Прежде чем говорить о тензорах и преобразованиях, ответим на главный
 вопрос: Зачем кому-то понадобилось менять координаты?

-------------------------------------------------------------------------------
 Причина 1: разные наблюдатели
-------------------------------------------------------------------------------

   Наблюдатель стоит на платформе. Мимо едет поезд. В поезде сидит пассажир.

   • Для наблюдателя: пассажир движется со скоростью 100 км/ч
   • Для пассажира: он покоится, а наблюдатель движется со скоростью −100

   Кто прав? Оба. Скорость — это вектор, и его компоненты зависят от
   системы отсчёта. Но сам пассажир — один и тот же физический объект.

   Проблема: Законы физики должны быть одинаковы для всех наблюдателей.
             F = ma должно работать и на платформе, и в поезде.

-------------------------------------------------------------------------------
 Причина 2: удобство решения задачи
-------------------------------------------------------------------------------

   Задача: найти площадь эллипса x²/a² + y²/b² = 1

   В декартовых координатах — сложный интеграл.
   Сделаем замену: u = x/a, v = y/b
   Эллипс превращается в круг u² + v² = 1, площадь = π.
   Площадь эллипса = πab (с учётом растяжения координат).

   Другие примеры:
   • Задача с вращением → полярные координаты
   • Задача со сферой → сферические координаты
   • Колебания → нормальные моды (собственные векторы)

   Правильный выбор координат превращает сложную задачу в простую.

-------------------------------------------------------------------------------
 Причина 3: измерения в разных единицах
-------------------------------------------------------------------------------

   Американский инженер: труба длиной 10 футов, диаметр 6 дюймов
   Российский инженер: та же труба — 3.048 м, диаметр 152.4 мм

   Труба одна и та же. Числа разные.

   Если формула расчёта потерь давления даёт разные ответы в футах и
   в метрах — формула неправильная. Физика не знает про футы и метры.

-------------------------------------------------------------------------------
 Причина 4: криволинейные координаты на поверхностях
-------------------------------------------------------------------------------

   На поверхности Земли нет "естественных" декартовых координат.
   Используем широту и долготу — но они ведут себя странно:
   • На полюсе долгота не определена
   • "Метр на восток" имеет разную длину на экваторе и в Москве

   В разных точках базисные векторы ∂/∂φ и ∂/∂θ имеют разную длину.
   Это вынуждает нас думать о преобразованиях координат.

-------------------------------------------------------------------------------
 Вывод: что должен уметь "правильный" математический объект
-------------------------------------------------------------------------------

 Физическая величина (скорость, сила, напряжение, метрика) должна:

   1. существовать независимо от выбора координат
   2. иметь компоненты, которые меняются при смене координат
   3. меняться по определённому закону, чтобы величина оставалась той же

 Объект, удовлетворяющий этим требованиям, называется тензор.

 Матрица перехода A — это просто запись того, как новые базисные
 векторы выражаются через старые. Она вынуждена быть именно такой,
 потому что базисные векторы — это конкретные геометрические объекты.


 Конкретный пример: теплопроводность в слоистом материале


 Есть слоистая теплоизоляция: слои идут горизонтально.

   • Вдоль слоёв теплопроводность λ∥ = 0.5 Вт/(м·К)
   • Поперёк слоёв теплопроводность λ⊥ = 0.05 Вт/(м·К)

 Если оси координат совпадают со слоями:

       λ = ⎛ 0.5   0  ⎞    Диагональная матрица — просто.
           ⎝  0   0.05⎠

 Теперь повернём координаты на 45°. Слои остались теми же.
 Но матрица теплопроводности изменится:

       λ' = R⁻¹ λ R =  ⎛ 0.275  0.225 ⎞    Появились недиагональные
                       ⎝ 0.225  0.275 ⎠    элементы.

 Что это значит физически?

   В повёрнутых координатах: если градиент температуры направлен
   по оси x', то тепловой поток будет не по x', а под углом.
   Потому что материал "хочет" проводить тепло вдоль слоёв.

   λ' ≠ λ  — компоненты разные
   Но физический материал — один и тот же
   λ и λ' описывают один объект в разных координатах

 Закон преобразования λ' = R⁻¹λR — не произвольный выбор.
 Он вынужден быть таким, чтобы тепловой поток q = −λ∇T
 был одним и тем же физическим вектором в любых координатах.

-------------------------------------------------------------------------------
 Зачем нужны тензоры
-------------------------------------------------------------------------------

 Проблема 1: Физические величины не должны зависеть от координат.
   • Температура — одна, как ни поверни оси
   • Скорость — один вектор, но компоненты меняются
   • Напряжение в материале — как описать?

 Проблема 2: Нужны объекты "сложнее" векторов
   • Скаляр принимает точку → даёт число
   • Вектор. Что он принимает? Что даёт?
   • Матрица действует на вектор → даёт вектор
   • Метрика принимает два вектора → даёт число (длину/угол)

 Решение: Тензор = мультилинейное отображение с определённым законом
          преобразования координат


-------------------------------------------------------------------------------
Мультилинейность — ключевая идея
-------------------------------------------------------------------------------

 Определение: мультилинейное отображение


 Отображение T: V₁ × V₂ × ... × Vₖ → W называется мультилинейным
 (или k-линейным), если оно линейно по каждому аргументу отдельно:

   T(v₁, ..., αuᵢ + βwᵢ, ..., vₖ) = αT(v₁,...,uᵢ,...,vₖ) + βT(v₁,...,wᵢ,...,vₖ)

 для всех i = 1, ..., k.

-------------------------------------------------------------------------------
 Пояснение: что значит "линейно по каждому аргументу"
-------------------------------------------------------------------------------

 Представьте функцию f(x, y) двух переменных.

 "Линейно по x" означает:
   Если зафиксировать y, то f ведёт себя как линейная функция от x:
   f(αx₁ + βx₂, y) = α·f(x₁, y) + β·f(x₂, y)

 "Линейно по y" означает:
   Если зафиксировать x, то f ведёт себя как линейная функция от y:
   f(x, αy₁ + βy₂) = α·f(x, y₁) + β·f(x, y₂)

 "Билинейно" = линейно по x и линейно по y (одновременно).

 Конкретный числовой пример: Скалярное произведение в ℝ²


 Скалярное произведение: ⟨u, v⟩ = u₁v₁ + u₂v₂

 Возьмём конкретные векторы:
   u = (1, 2),  v = (3, 0),  w = (0, 1)

 Проверка линейности по первому аргументу:

   Вычислим ⟨2u + 3w, v⟩ двумя способами:

   Способ 1 (напрямую):
     2u + 3w = 2·(1,2) + 3·(0,1) = (2,4) + (0,3) = (2, 7)
     ⟨(2,7), (3,0)⟩ = 2·3 + 7·0 = 6

   Способ 2 (через линейность):
     2·⟨u, v⟩ + 3·⟨w, v⟩ = 2·⟨(1,2),(3,0)⟩ + 3·⟨(0,1),(3,0)⟩
                         = 2·(1·3 + 2·0) + 3·(0·3 + 1·0)
                         = 2·3 + 3·0 = 6  ✓

   Результаты совпали — линейность по первому аргументу работает.

 Почему это важно:
   Мультилинейность позволяет "разбирать" сложные выражения на части.
   Вместо вычисления T(сложная_комбинация) можно разложить на
   простые слагаемые и сложить результаты.

 Контрпример — норма не линейна:
   ‖2u‖ = ‖(2,4)‖ = √(4+16) = √20 ≈ 4.47
   2·‖u‖ = 2·‖(1,2)‖ = 2·√5 ≈ 4.47  ✓ (тут совпало)

   Но: ‖(−1)·u‖ = ‖(−1,−2)‖ = √5 ≈ 2.24
       (−1)·‖u‖ = −√5 ≈ −2.24  ✗ (не совпало)

   Норма даёт всегда положительное число, а (−1)·‖u‖ отрицательно.
   Поэтому норма — не линейна, и следовательно — не тензор.


 Примеры мультилинейных отображений
+-------------------+-----------------------+---------------------------+
| ОТОБРАЖЕНИЕ       | ТИП                   | ПРОВЕРКА МУЛЬТИЛИНЕЙНОСТИ |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Скалярное произв. | V × V → ℝ             | ⟨αu, v⟩ = α⟨u,v⟩ ✓           |
| ⟨u, v⟩             | билинейное (k=2)      | ⟨u, αv⟩ = α⟨u,v⟩ ✓           |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Определитель      | V × V × ... × V → ℝ   | det(..., αv, ...) =       |
| det(v₁,...,vₙ)      | n-линейное            | = α·det(..., v, ...) ✓    |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Векторное произв. | V × V → V             | (αu) × v = α(u × v) ✓     |
| u × v             | билинейное            | u × (αv) = α(u × v) ✓     |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Метрика           | TₚM × TₚM → ℝ         | g(αu, v) = αg(u,v) ✓      |
| g(u, v)           | билинейное            | g(u, αv) = αg(u,v) ✓      |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Кривизна Римана   | TₚM × TₚM × TₚM → TₚM  | R(αX,Y)Z = αR(X,Y)Z ✓     |
| R(X,Y)Z           | трилинейное           | (линейно по всем трём)    |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+

 Контрпример: что не является мультилинейным


 Норма ‖v‖ = √⟨v,v⟩ — не линейна.

   ‖αv‖ = |α|·‖v‖ ≠ α·‖v‖  (для α < 0)

 Норма — это не тензор. Это функция, но не линейная.


-------------------------------------------------------------------------------
Формальное определение тензора
-------------------------------------------------------------------------------

 Определение: тензор типа (p, q)


 Пусть V — векторное пространство над ℝ, V* — его двойственное.

 Тензор типа (p, q) на V — это мультилинейное отображение:

   T: V* × ... × V* × V × ... × V → ℝ
      +----p штук----+ +---q штук---+

 p называется контравариантной валентностью (верхние индексы)
 q называется ковариантной валентностью (нижние индексы)

 Общая валентность (ранг) тензора = p + q

 Иерархия тензоров
+----------------+--------+-----------------------------------------------------+
| ТИП            | (p,q)  | ЧТО ЭТО / СКОЛЬКО КОМПОНЕНТ                         |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Скаляр         | (0,0)  | T: {} → ℝ (просто число)                            |
|                |        | 1 компонента: T                                     |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Вектор         | (1,0)  | T: V* → ℝ (линейная функция на ковекторах)          |
|                |        | n компонент: Tⁱ                                     |
|                |        | Отождествляется с элементом V через V ≅ V**         |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Ковектор       | (0,1)  | T: V → ℝ (линейная функция на векторах)             |
| (1-форма)      |        | n компонент: Tᵢ                                     |
|                |        | Это элемент V*                                      |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Билинейная     | (0,2)  | T: V × V → ℝ                                        |
| форма          |        | n² компонент: Tᵢⱼ                                   |
|                |        | Пример: метрика gᵢⱼ, скалярное произведение         |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Линейный       | (1,1)  | T: V* × V → ℝ  или  T: V → V                        |
| оператор       |        | n² компонент: Tⁱⱼ                                   |
|                |        | Пример: матрица преобразования                      |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Тензор (2,0)   | (2,0)  | T: V* × V* → ℝ                                      |
|                |        | n² компонент: Tⁱʲ                                   |
|                |        | Пример: обратная метрика gⁱʲ                        |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Тензор Римана  | (1,3)  | R: V* × V × V × V → ℝ                               |
|                |        | n⁴ компонент: Rⁱⱼₖₗ                                  |
|                |        | (с симметриями: 20 независимых в 4D)                |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+

-------------------------------------------------------------------------------
 Компоненты тензора в базисе
-------------------------------------------------------------------------------

 Пусть {e₁, ..., eₙ} — базис V, {e¹, ..., eⁿ} — двойственный базис V*.

 Компоненты тензора T типа (p,q):

   T^{i₁...iₚ}_{j₁...jq} = T(e^{i₁}, ..., e^{iₚ}, e_{j₁}, ..., e_{jq})

 Сам тензор восстанавливается:

   T = T^{i₁...iₚ}_{j₁...jq} · e_{i₁} ⊗ ... ⊗ e_{iₚ} ⊗ e^{j₁} ⊗ ... ⊗ e^{jq}

 (суммирование по повторяющимся индексам — соглашение Эйнштейна)

-------------------------------------------------------------------------------
 Ключевое различие: матрица-таблица vs матрица-тензор
-------------------------------------------------------------------------------

 Часто говорят "тензор — это многомерная таблица чисел". Это неправильно.
 Таблица — это лишь представление тензора в конкретном базисе.

 Матрица как таблица:
   Просто 4 числа в определённом порядке. Не меняются при смене базиса.
   Пример: данные в Excel, пиксели изображения.

 Матрица как тензор:
   Числа + тип + правило преобразования.
   При смене базиса числа меняются по определённому закону.
   Пример: метрика, линейный оператор, билинейная форма.


 Пример: одна матрица — три разных тензора


 Возьмём единичную матрицу 2×2:

       ⎛ 1  0 ⎞
   M = ⎜      ⎟
       ⎝ 0  1 ⎠

 Эта матрица может представлять три разных тензора:

 +---------------------+---------+--------------------------------------+
 | Тип тензора         | Индексы | Что это                              |
 +---------------------+---------+--------------------------------------+
 | (1,1) — оператор    | Mⁱⱼ     | Тождественное преобразование v ↦ v   |
 | (0,2) — билин.форма | Mᵢⱼ     | Стандартное скалярное произв. ⟨u,v⟩   |
 | (2,0) — бивектор    | Mⁱʲ     | Обратная метрика (поднимает индексы) |
 +---------------------+---------+--------------------------------------+

 Теперь применим смену базиса: растянем ось x в 2 раза.

 Матрица перехода: A = ⎛ 2  0 ⎞,  A⁻¹ = ⎛ 1/2  0 ⎞
                       ⎝ 0  1 ⎠         ⎝  0   1 ⎠

 Результаты преобразования:

 +----------------+-------------------+------------------+
 | Тип            | Формула           | Результат        |
 +----------------+-------------------+------------------+
 | (1,1) оператор | M' = A⁻¹ M A      | ⎛ 1  0 ⎞          |
 |                |                   | ⎝ 0  1 ⎠          |
 |                |                   | (не изменилась) |
 +----------------+-------------------+------------------+
 | (0,2) форма    | M' = Aᵀ M A       | ⎛ 4  0 ⎞          |
 |                |                   | ⎝ 0  1 ⎠          |
 |                |                   | (выросла по x)   |
 +----------------+-------------------+------------------+
 | (2,0) бивектор | M' = (A⁻¹)M(A⁻¹)ᵀ | ⎛ 1/4  0 ⎞        |
 |                |                   | ⎝  0   1 ⎠        |
 |                |                   | (сжалась по x)   |
 +----------------+-------------------+------------------+

 Вывод:
   Одна и та же таблица чисел ⎛1 0⎞ превратилась в три разные матрицы.
                              ⎝0 1⎠
   Тензор — это не числа, а числа + правило преобразования.


 Числовой пример: как вычислить преобразование


 Проверим для типа (0,2) — билинейной формы (метрики):

 M' = Aᵀ M A

     ⎛ 2  0 ⎞ᵀ   ⎛ 1  0 ⎞   ⎛ 2  0 ⎞
   = ⎜      ⎟  · ⎜      ⎟ · ⎜      ⎟
     ⎝ 0  1 ⎠    ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

     ⎛ 2  0 ⎞   ⎛ 1  0 ⎞   ⎛ 2  0 ⎞
   = ⎜      ⎟ · ⎜      ⎟ · ⎜      ⎟
     ⎝ 0  1 ⎠   ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

     ⎛ 2  0 ⎞   ⎛ 2  0 ⎞   ⎛ 4  0 ⎞
   = ⎜      ⎟ · ⎜      ⎟ = ⎜      ⎟  ✓
     ⎝ 0  1 ⎠   ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

 Физический смысл:
   Базисный вектор e'₁ = 2e₁ стал вдвое длиннее.
   Координата x' = x/2 (в новых единицах нужно меньше шагов).
   Длина: s² = g'₁₁(x')² = 4·(x/2)² = x² = g₁₁x² ✓

   Метрика увеличилась в 4 раза, чтобы компенсировать уменьшение координат.
   Это как цена: если единица товара стала вдвое крупнее, цена за единицу
   вырастает вчетверо (чтобы цена за грамм осталась той же).


 Критерий: как понять, тензор это или просто таблица?


 Задайте вопрос: "Должны ли эти числа меняться при смене системы координат,
                  чтобы описывать тот же самый физический/геометрический
                  объект?"

 +-------------------------------+---------------------------------+
 | ПРОСТО ТАБЛИЦА                | ТЕНЗОР                          |
 +-------------------------------+---------------------------------+
 | Пиксели изображения           | Метрика пространства gᵢⱼ        |
 | Данные в базе данных          | Тензор напряжений в материале   |
 | Коэффициенты уравнения        | Тензор инерции тела             |
 | (в фиксированных координатах) | Электромагнитный тензор Fᵢⱼ     |
 +-------------------------------+---------------------------------+
 | Смена координат: числа те же  | Смена координат: числа меняются |
 |                               | по определённому закону         |
 +-------------------------------+---------------------------------+

 Вывод:
   Тензор = абстрактный объект, не зависящий от координат.
   Компоненты тензора = числа, которые зависят от координат так,
   чтобы сам тензор оставался тем же.


-------------------------------------------------------------------------------
Тензорное произведение
-------------------------------------------------------------------------------

 Универсальное свойство (каноническое определение)


 Тензорное произведение V ⊗ W — это пространство с билинейным отображением
 ⊗: V × W → V ⊗ W, через которое факторизуется любое билинейное отображение:

     V × W --⊗--→ V ⊗ W
        ╲          ↓ ∃! линейное
      B  ╲        ↙
     (билин) ╲  ↙
              U

 Для любого билинейного B: V × W → U существует единственное линейное
 отображение B̃: V ⊗ W → U такое, что B = B̃ ∘ ⊗.

 Смысл: V ⊗ W — "самое общее" пространство, куда можно билинейно отобразить.


 Конструкция (для конечномерных пространств)


 В конечномерном случае V ⊗ W можно отождествить с пространством
 билинейных форм на V* × W*:

 Для v ∈ V и w ∈ W определяем v ⊗ w ∈ V ⊗ W:

   (v ⊗ w)(φ, ψ) = φ(v) · ψ(w)   для φ ∈ V*, ψ ∈ W*

 Свойства:
   • (αv) ⊗ w = v ⊗ (αw) = α(v ⊗ w)
   • (v₁ + v₂) ⊗ w = v₁ ⊗ w + v₂ ⊗ w
   • v ⊗ (w₁ + w₂) = v ⊗ w₁ + v ⊗ w₂
   • dim(V ⊗ W) = dim(V) · dim(W)

 Базис:
   Если {eᵢ} — базис V, {fⱼ} — базис W, то {eᵢ ⊗ fⱼ} — базис V ⊗ W.

-------------------------------------------------------------------------------
 Пространство тензоров как тензорное произведение
-------------------------------------------------------------------------------

 Пространство тензоров типа (p,q) на V:

   T^p_q(V) = V ⊗ ... ⊗ V ⊗ V* ⊗ ... ⊗ V*
              +---p штук---+ +----q штук----+

 Примеры:
   • T⁰₀(V) = ℝ                     (скаляры)
   • T¹₀(V) = V                     (векторы)
   • T⁰₁(V) = V*                    (ковекторы)
   • T¹₁(V) = V ⊗ V* ≅ End(V)       (линейные операторы)
   • T⁰₂(V) = V* ⊗ V*              (билинейные формы)


 Пример: тензорное произведение в компонентах


 Пусть v = (v¹, v², v³), w = (w¹, w²) — векторы в ℝ³ и ℝ².

 Тогда v ⊗ w — матрица 3×2:

   (v ⊗ w)ⁱʲ = vⁱ wʲ

       ⎛ v¹w¹  v¹w² ⎞
   =   ⎜ v²w¹  v²w² ⎟
       ⎝ v³w¹  v³w² ⎠

 Это матрица ранга 1 (все строки пропорциональны).
 Не всякая матрица — тензорное произведение двух векторов.


-------------------------------------------------------------------------------
Преобразование координат
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Матрица перехода A — что это такое
-------------------------------------------------------------------------------

 Матрица перехода A описывает, как новые базисные векторы выражаются
 через старые:

   e'₁ = A¹₁e₁ + A²₁e₂ + ...
   e'₂ = A¹₂e₁ + A²₂e₂ + ...
   ...

 Или компактно: e'ⱼ = Aⁱⱼ eᵢ  (j-й новый = линейная комбинация старых)

 Пример: Растяжение оси x в 2 раза

   Старый базис: e₁ = (1,0), e₂ = (0,1)
   Новый базис:  e'₁ = (2,0) = 2e₁, e'₂ = (0,1) = e₂

   Матрица перехода: A = ⎛ 2  0 ⎞
                         ⎝ 0  1 ⎠

   Столбцы A — это координаты новых базисных векторов в старом базисе.

 Физический смысл:
   • A описывает, как изменились "единицы измерения"
   • A = поворот → повернули оси координат
   • A = растяжение → укрупнили/измельчили шкалу
   • Это пассивное преобразование: объекты те же, меняется только описание

 Важно:
   A⁻¹ — обратная матрица — переводит из новых координат в старые
   det(A) ≠ 0 — базисы должны быть невырожденными

 Внимание: соглашение о матрице перехода

   В этом атласе A — матрица перехода базиса: e' = Ae (новый через старый).

   В физической литературе (Ландау-Лифшиц, MTW) часто используют матрицу
   перехода координат: x' = Λx. Тогда базис преобразуется как e' = eΛ⁻¹.

   Эти матрицы обратны друг другу: A = Λ⁻¹.

   Не перепутайте. Формула g' = AᵀgA (наше соглашение) превращается
   в g' = (Λ⁻¹)ᵀgΛ⁻¹ в физическом соглашении.

-------------------------------------------------------------------------------
 Закон преобразования тензоров
-------------------------------------------------------------------------------

 При замене базиса e'ᵢ = Aⱼᵢ eⱼ компоненты тензора преобразуются:

 Вектор (контравариантный, верхний индекс):
   v'ⁱ = (A⁻¹)ⁱⱼ vʲ    — преобразуется противоположно базису

 Ковектор (ковариантный, нижний индекс):
   ω'ᵢ = Aʲᵢ ωⱼ        — преобразуется как базис

 Тензор типа (p,q):
   T'^{i₁...iₚ}_{j₁...jq} = (A⁻¹)^{i₁}_{k₁}...(A⁻¹)^{iₚ}_{kₚ} ·
                            · A^{l₁}_{j₁}.A^{lq}_{jq} ·
                            · T^{k₁...kₚ}_{l₁...lq}

 Ключевое:
   Верхние индексы преобразуются через A⁻¹ (контравариантно)
   Нижние индексы преобразуются через A (ковариантно)

-------------------------------------------------------------------------------
 Почему "контра" и "ко" — наглядное сравнение
-------------------------------------------------------------------------------

 Ситуация: удлинили базисный вектор вдвое (e' = 2e)
           Новая "единица измерения" = 2 старых

+-----------------------+-------------------------+---------------------------+
|                       | ВЕКТОР vⁱ               | КОВЕКТОР ωᵢ               |
|                       | (контравариантный)      | (ковариантный)            |
+-----------------------+-------------------------+---------------------------+
| Геом. смысл           | "Куда двигаться"        | "Цена за единицу"         |
|                       | (стрелка)               | (дифференциал df)         |
+-----------------------+-------------------------+---------------------------+
| Пример                | v = 3e₁ (смещение)      | ω = 10ε¹ (цена)           |
+-----------------------+-------------------------+---------------------------+
| В старом базисе       | v¹ = 3                  | ω₁ = 10                   |
+-----------------------+-------------------------+---------------------------+
| В новом базисе        | v'¹ = 1.5               | ω'₁ = 20                  |
| (e' = 2e)             | (компоненты ÷2)         | (компоненты ×2)           |
+-----------------------+-------------------------+---------------------------+
| Направление           | ПРОТИВ базиса           | ВМЕСТЕ с базисом          |
| преобразования        | (базис ×2 → комп. ÷2)   | (базис ×2 → комп. ×2)     |
+-----------------------+-------------------------+---------------------------+
| Почему так            | Вектор v один и тот же, | Ковектор "цена за единицу"|
|                       | просто меряем в других  | Единица стала больше →    |
|                       | единицах                | цена за неё тоже больше   |
+-----------------------+-------------------------+---------------------------+
| Формула               | v'ⁱ = (A⁻¹)ⁱⱼ vʲ       | ω'ᵢ = Aʲᵢ ωⱼ             |
| преобразования        |                         |                           |
+-----------------------+-------------------------+---------------------------+
| Индекс                | ВЕРХНИЙ                 | НИЖНИЙ                    |
+-----------------------+-------------------------+---------------------------+

 Проверка инварианта:
   Старый базис: v¹ω₁ = 3 × 10 = 30
   Новый базис:  v'¹ω'₁ = 1.5 × 20 = 30  ✓

 vⁱωᵢ — инвариант (не зависит от базиса, потому что контра × ко)


 Примеры свёртки (инварианты)
+----------------+----------------------------------------+
| СВЁРТКА        | СМЫСЛ                                  |
+----------------+----------------------------------------+
| vⁱvᵢ = gᵢⱼvⁱvʲ | Квадрат длины вектора ‖v‖²             |
+----------------+----------------------------------------+
| vⁱωᵢ           | Действие ковектора на вектор (число)   |
+----------------+----------------------------------------+
| Tⁱᵢ            | След матрицы Tr(T)                     |
+----------------+----------------------------------------+
| Rⁱⱼᵢⱼ = R      | Скалярная кривизна (из тензора Римана) |
+----------------+----------------------------------------+
| FᵢⱼFⁱʲ         | Инвариант электромагнитного поля       |
+----------------+----------------------------------------+

-------------------------------------------------------------------------------
Операции над тензорами
-------------------------------------------------------------------------------

 Таблица операций
+-------------------+---------------------+------------------------------+
| ОПЕРАЦИЯ          | ДЕЙСТВИЕ НА ТИПЫ    | ПРИМЕР                       |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Сложение          | (p,q) + (p,q) →     | (Sⁱⱼ + Tⁱⱼ)                  |
|                   | → (p,q)             | Только одинаковые типы.      |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Тензорное         | (p₁,q₁) ⊗ (p₂,q₂) → | (vⁱ)(wʲ) = vⁱwʲ              |
| произведение      | → (p₁+p₂, q₁+q₂)    | Ранг складывается            |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Свёртка           | (p,q) → (p−1,q−1)   | Tⁱⱼₖ → Tⁱⱼᵢ = Sⱼ             |
| (trace)           | Ранг уменьшается    | Суммируем по повтор. индексу |
|                   | на 2                |                              |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Поднятие          | gⁱʲTⱼₖ = Tⁱₖ        | Нижний → верхний             |
| индекса           | (0,2) ⊗ (1,1) →     | С помощью обратной метрики   |
|                   | → свёртка → (1,1)   |                              |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Опускание         | gᵢⱼTʲ = Tᵢ          | Верхний → нижний             |
| индекса           |                     | С помощью метрики            |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Симметризация     | T₍ᵢⱼ₎ = ½(Tᵢⱼ+Tⱼᵢ)  | Симметричная часть           |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Антисимметризация | T[ᵢⱼ] = ½(Tᵢⱼ−Tⱼᵢ)  | Антисимметричная часть       |
|                   |                     | → дифференциальные формы.    |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+

-------------------------------------------------------------------------------
Тензоры в физике
-------------------------------------------------------------------------------

 Главные физические тензоры
+-------------------+-------+----------------------------------------------+
| ТЕНЗОР            | ТИП   | ЧТО ОПИСЫВАЕТ                                |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Метрика gᵢⱼ       | (0,2) | Как измерять расстояния                      |
|                   |       | ds² = gᵢⱼ dxⁱdxʲ                             |
|                   |       | Евклидово: gᵢⱼ = δᵢⱼ                         |
|                   |       | Минковского: g = diag(−1,1,1,1)              |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Тензор Римана     | (1,3) | Кривизна пространства                        |
| Rⁱⱼₖₗ              |       | Измеряет поворот вектора при обходе контура  |
|                   |       | R = 0 ⟺ пространство плоское                |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Тензор Риччи      | (0,2) | "След" тензора Римана                        |
| Rᵢⱼ = Rᵏᵢₖⱼ       |       | Входит в уравнения Эйнштейна                 |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Тензор энергии-   | (0,2) | Распределение материи                        |
| импульса Tᵢⱼ      |       | T₀₀ = плотность энергии                      |
|                   |       | T₀ᵢ = поток энергии = плотность импульса     |
|                   |       | Tᵢⱼ = давление/напряжение                    |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Электромагнитный  | (0,2) | E и B поля как один объект                   |
| тензор Fᵢⱼ        |       | Антисимметричный: Fᵢⱼ = −Fⱼᵢ                 |
|                   |       | → дифференциальная 2-форма.                  |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Тензор инерции    | (0,2) | Как тело сопротивляется вращению             |
| Iᵢⱼ               |       | L = Iω (момент импульса = инерция × угл.ск.) |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Тензор напряжений | (0,2) | Силы внутри материала                        |
| σᵢⱼ               |       | σᵢⱼ = сила в направлении j на площадке ⊥ i   |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+

 Уравнения Эйнштейна — тензоры в действии


                    Rᵢⱼ − ½gᵢⱼR + Λgᵢⱼ = 8πG · Tᵢⱼ
                    \________________/         \____/
                         геометрия             материя
                    (кривизна пр-ва)

 Левая часть:
   • Rᵢⱼ — тензор Риччи (кривизна)
   • R = gⁱʲRᵢⱼ — скалярная кривизна
   • Λ — космологическая постоянная
   • gᵢⱼ — метрика пространства-времени

 Правая часть:
   • Tᵢⱼ — распределение энергии и импульса
   • G — гравитационная постоянная

 Смысл: Материя искривляет пространство. Кривизна определяет движение.


-------------------------------------------------------------------------------
Связь с другими разделами
-------------------------------------------------------------------------------

 Граф связей раздела


   (Лин. алгебра)
        |
        | векторные пространства, V*
        ▼
   (Произведения)
        |
        | скалярное ⊗ тензорное
        ▼
   (Двойственность)
        |
        | V* — двойственное пространство
        ▼
   ▶ (Тензоры) ◀
        |
        +--------------► (Диф. формы) — антисимметричные тензоры
        |
        +--------------► (Многообразия) — тензорные поля на M
        |
        +--------------► Приложения — ОТО, электромагнетизм


 Резюме: Что такое тензор


 Три эквивалентных определения:

 1. Алгебраическое:
    Тензор типа (p,q) — мультилинейное отображение
    T: V* × ... × V* × V × ... × V → ℝ

 2. Через базис:
    Набор чисел T^{i₁...iₚ}_{j₁...jq} с определённым законом
    преобразования при замене базиса

 3. Геометрическое:
    Тензор — это объект, который существует независимо от координат,
    но может быть выражен в компонентах в любой системе координат

 Все три определения эквивалентны.

 Важно помнить:
   • Тензор ≠ таблица чисел. Таблица — лишь представление в конкретном базисе
   • Одна и та же матрица может быть тензором разных типов
   • Тип тензора определяет, как числа меняются при смене базиса
   • Ковектор (элемент V*) — это линейная функция на векторах, не вектор

-------------------------------------------------------------------------------
 Бонус: π-теорема и критерии подобия
-------------------------------------------------------------------------------

 Это не про тензоры напрямую, но про размерности — фундамент физики.

 Проблема: Потери давления в трубе ΔP зависят от ρ, v, D, L, μ, ε.
 Это 7 величин. Как найти зависимость?

 Π-теорема Бакингема:
 +----------------------------------------------------------------------+
 | Если n величин связаны физическим законом, и эти величины выражаются |
 | через k базовых размерностей (M, L, T, ...), то закон можно записать |
 | как связь (n − k) безразмерных комбинаций.                           |
 +----------------------------------------------------------------------+

 Пример: Потери в трубе
   n = 7 (ΔP, ρ, v, D, L, μ, ε), k = 3 (M, L, T) → 4 безразмерных числа

   Π₁ = ΔP/(ρv²)    — коэффициент давления (Эйлер)
   Π₂ = ρvD/μ       — число Рейнольдса Re
   Π₃ = L/D         — относительная длина
   Π₄ = ε/D         — относительная шероховатость

   Закон: Π₁ = f(Π₂, Π₃, Π₄), или:  ΔP/(ρv²) = f(Re, L/D, ε/D)

   Это даёт формулу Дарси-Вейсбаха: ΔP = λ(Re, ε/D)·(L/D)·(ρv²/2)

 Главные безразмерные числа теплофизики:
 +------------+------------------+--------------------------------------------+
 | ЧИСЛО      | ФОРМУЛА          | ФИЗИЧЕСКИЙ СМЫСЛ                           |
 +------------+------------------+--------------------------------------------+
 | Рейнольдса | Re = ρvL/μ       | Инерция / Вязкость                         |
 |            |                  | Re < 2300: ламинар, Re > 4000: турб. |
 +------------+------------------+--------------------------------------------+
 | Прандтля   | Pr = ν/a = μcₚ/λ | Вязкая диффузия / Температурная            |
 |            |                  | Pr ≈ 0.7 газы, Pr ≈ 7 вода                 |
 +------------+------------------+--------------------------------------------+
 | Нуссельта  | Nu = αL/λ        | Конвекция / Теплопроводность               |
 |            |                  | Nu = 1: чистая кондукция                   |
 +------------+------------------+--------------------------------------------+
 | Грасгофа   | Gr = gβΔTL³/ν²   | Плавучесть / Вязкость                      |
 |            |                  | Свободная конвекция                        |
 +------------+------------------+--------------------------------------------+
 | Маха       | Ma = v/c         | Скорость / Скорость звука                  |
 |            |                  | Ma > 1: сверхзвук, скачки уплотнения    |
 +------------+------------------+--------------------------------------------+

 Зачем это нужно:
   • Моделирование: если Re модели = Re оригинала → потоки подобны
   • Корреляции: Nu = f(Re, Pr) — универсальные формулы теплообмена
   • Оценки: Re ~ 10⁶ → точно турбулентность, считаем по формулам для турб.


 Глубокая связь: π-теорема как следствие группы Ли масштабирований


 Почему Π-теорема работает? За ней стоит симметрия — группа Ли.

 Группа масштабирований:

   G = (ℝ⁺, ×) — положительные вещественные числа с умножением
   Это группа Ли: непрерывная, гладкая, одномерная

   Действие на размерные величины:
     [L] → λ[L]         (длина масштабируется в λ раз)
     [T] → μ[T]         (время масштабируется в μ раз)
     [M] → ν[M]         (масса масштабируется в ν раз)

 Ключевая идея:
 +----------------------------------------------------------------------+
 | Физический закон должен быть инвариантен относительно выбора единиц. |
 | Это значит: закон инвариантен относительно группы масштабирований G. |
 |                                                                      |
 | Безразмерные числа (Re, Pr, Nu) — это инварианты действия G.         |
 +----------------------------------------------------------------------+

 Алгебра Ли и размерность:

   Генератор масштабирований: D = x·∂/∂x + y·∂/∂y + z·∂/∂z + ...

   Величина f имеет размерность [L]^a[T]^b[M]^c если:
     D·f = (a + b + c)·f     (собственная функция оператора D)

   Безразмерная величина: D·Π = 0 (инвариант)

 Пример: Почему Re = ρvL/μ безразмерно?

   [ρ] = M/L³,  [v] = L/T,  [L] = L,  [μ] = M/(L·T)

   [ρvL/μ] = (M/L³)·(L/T)·L / (M/(L·T)) = (M·L·L)/(L³·T) × (L·T)/M = 1

   Re инвариантно относительно λ → λL, μ → μT, ν → νM

 Обобщение — теория Нётер:

   Симметрия            ↔  Закон сохранения
   Масштабирование      ↔  Размерный анализ, Π-теорема
   Трансляция времени   ↔  Сохранение энергии
   Трансляция в простр. ↔  Сохранение импульса
   Вращение             ↔  Сохранение момента импульса

 Все эти симметрии образуют группы Ли, и их алгебры Ли дают генераторы.


Тензоры живут на векторных пространствах. Но реальные пространства — кривые.
Поверхность Земли, пространство-время, конфигурационное пространство робота.
Как определить тензоры на искривлённом пространстве?

Для этого нужны многообразия — пространства, которые локально выглядят как ℝⁿ,
но глобально могут иметь сложную форму. В каждой точке есть касательное
пространство — и там-то и живут тензоры.

===============================================================================
Многообразия — пространства, которые можно картографировать
===============================================================================

Многообразие — это кульминация идеи "локально плоское, глобально кривое".
Земля круглая, но каждая карта в атласе — плоская. Атлас покрывает всю Землю,
хотя ни одна карта не покрывает её полностью без искажений.

В терминах "объект—наблюдатель" многообразие — это место, где наблюдатель
принципиально локален. Нет глобальной системы координат для всего пространства.

Карта — это взгляд одного локального наблюдателя.
Атлас — это согласованная коллекция таких взглядов.

На сфере нет "правильной" системы координат, покрывающей всё без сингулярностей.
Есть много карт, и в местах перекрытия они согласованы: если точка попала на
две карты, можно пересчитать координаты с одной на другую.

Функции перехода между картами — это "словари" между языками соседних
наблюдателей. Требование гладкости функций перехода гарантирует, что понятие
"производная" не зависит от выбора карты.

Что инвариантно (не зависит от карты):
  • Размерность — сколько координат нужно локально
  • Топология — дырки, связность, ориентируемость
  • Кривизна (в римановом случае) — собственное свойство метрики

Координаты — лишь способ описания. Само многообразие существует без них.

-------------------------------------------------------------------------------
 Зачем нужны многообразия
-------------------------------------------------------------------------------

 Проблема: Мы умеем работать с ℝⁿ (координаты, производные, интегралы).
           Но реальные пространства — кривые.

   • Поверхность Земли — не плоскость
   • Пространство-время — искривлено массой (ОТО)
   • Пространство состояний робота — сложная форма
   • Пространство всех вращений — не ℝ³

 Решение: Многообразие = пространство, которое локально похоже на ℝⁿ
          Глобально может быть любой формы, но в каждой точке — "плоское"

 Аналогия: Атлас мира. Земля круглая, но каждая страница атласа — плоская.
           Достаточно карт покрывает всю Землю.

 Ключевая идея:
   Мы не можем работать с кривым пространством напрямую.
   Но можем разбить его на куски, каждый из которых "выпрямляется" в ℝⁿ.
   Затем согласовать эти куски между собой.

-------------------------------------------------------------------------------
 Критическое различие: топология vs геометрия
-------------------------------------------------------------------------------

 Многообразие (топологическое + гладкое) = только форма
   • Можно говорить о касательных, производных, дифф. формах
   • Нельзя говорить о длинах, углах, расстояниях.
   • Сфера и эллипсоид — одинаковые многообразия (диффеоморфны)

 Риманово многообразие = многообразие + метрика gᵢⱼ
   • Можно измерять длины, углы, площади
   • Сфера и эллипсоид — разные (разные метрики)

 Частая ошибка инженеров: Криволинейные координаты в ℝ³
    (цилиндрические, сферические) — это не кривизна пространства.
    Пространство плоское (ℝ³), просто координаты "кривые".
    Кривизна — это свойство метрики, а не координат.

-------------------------------------------------------------------------------
 Карта (chart) — локальные координаты
-------------------------------------------------------------------------------

 +----------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: КАРТА                                             |
 +----------------------------------------------------------------+
 |                                                                |
 | Карта на топологическом пространстве M — это пара (U, φ), где: |
 |                                                                |
 | • U ⊆ M — открытое множество (область карты)                   |
 | • φ: U → ℝⁿ — гомеоморфизм на открытое подмножество ℝⁿ         |
 |                                                                |
 | φ называется координатным отображением (или параметризацией).  |
 |                                                                |
 +----------------------------------------------------------------+

 Геометрический смысл:

        M (многообразие)              ℝⁿ (координатное пространство)

           +-----+                         y
          ╱   U   ╲        φ              ↑
         |    ●p   |   ---------→         |  ●φ(p)
          ╲       ╱                       |
           +-----+                        +------→ x

   Карта "выпрямляет" кусок многообразия в плоское пространство.
   Точка p ∈ U получает координаты φ(p) = (x¹, x², ..., xⁿ) ∈ ℝⁿ.

 Почему гомеоморфизм:
 +----------------+----------------------------------------+
 | СВОЙСТВО       | ЧТО ОЗНАЧАЕТ                           |
 +----------------+----------------------------------------+
 | φ биективна    | Каждой точке U ↔ ровно одна точка в ℝⁿ |
 | φ непрерывна   | Близкие точки остаются близкими        |
 | φ⁻¹ непрерывна | Можно вернуться обратно                |
 +----------------+----------------------------------------+

 Примеры карт:
 +--------------+-----------------------------+--------------------------+
 | МНОГООБРАЗИЕ | КАРТА                       | ОСОБЕННОСТЬ              |
 +--------------+-----------------------------+--------------------------+
 | ℝ            | U=ℝ, φ=id                   | Одной карты достаточно   |
 | S¹           | U₁=S¹\{(−1,0)}, φ₁=угол θ   | Одна карта не покрывает. |
 |              | Нужна вторая: U₂=S¹\{(1,0)} | → нужен атлас из 2 карт  |
 +--------------+-----------------------------+--------------------------+

 Визуализация для S¹:

            ●--------------●                     -----●-----
           ╱    удалили     ╲      φ₁              −π   0   π
          ●        ✕         ●   ----→
           ╲     (−1,0)     ╱
            ●--------------●

-------------------------------------------------------------------------------
 Атлас — набор карт, покрывающий всё многообразие
-------------------------------------------------------------------------------

 +-----------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: АТЛАС                                        |
 +-----------------------------------------------------------+
 |                                                           |
 | Атлас на M — это набор карт 𝒜 = {(Uα, φα)}α∈A такой, что: |
 |                                                           |
 | ⋃ Uα = M    (карты покрывают всё многообразие)            |
 | α                                                         |
 |                                                           |
 +-----------------------------------------------------------+

 Пример: Атлас для S¹ (минимальный)

   Карта 1: U₁ = S¹ \ {(−1, 0)},  φ₁(cos θ, sin θ) = θ ∈ (−π, π)
   Карта 2: U₂ = S¹ \ {(1, 0)},   φ₂(cos θ, sin θ) = θ ∈ (0, 2π)

            Карта 1                         Карта 2
         ●--------------●               ●--------------●
        ╱                ╲             ╱                ╲
       ●        ✕         ●           ●         ✕        ●
        ╲    (−1,0)      ╱             ╲      (1,0)     ╱
         ●--------------●               ●--------------●

   U₁ ∪ U₂ = S¹  ✓  (вместе покрывают всю окружность)

 Аналогия с географией:
   • Карта Европы покрывает Европу, но не Австралию
   • Карта Австралии покрывает Австралию, но не Европу
   • Вместе = весь мир (атлас)
   • Там, где карты перекрываются — можно переходить с одной на другую

-------------------------------------------------------------------------------
 Функции перехода — как склеить карты
-------------------------------------------------------------------------------

 Проблема: Если точка p лежит в двух картах (U₁, φ₁) и (U₂, φ₂),
           у неё два набора координат: φ₁(p) и φ₂(p).
           Как они связаны?

 +---------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ФУНКЦИЯ ПЕРЕХОДА                                 |
 +---------------------------------------------------------------+
 |                                                               |
 | Функция перехода с карты (U₁, φ₁) на карту (U₂, φ₂):          |
 |                                                               |
 | ψ₁₂ = φ₂ ∘ φ₁⁻¹ : φ₁(U₁ ∩ U₂) → φ₂(U₁ ∩ U₂)                   |
 |                                                               |
 | Это отображение ℝⁿ → ℝⁿ (между координатными пространствами) |
 |                                                               |
 +---------------------------------------------------------------+

 Диаграмма:

                           M
                        ╱     ╲
                      U₁       U₂
                        ╲  p  ╱
                     φ₁ ↓ ● ↓ φ₂
                        ╱     ╲
                  φ₁(p)         φ₂(p)
                    ∈ℝⁿ ------→ ∈ℝⁿ
                          ψ₁₂

   ψ₁₂ переводит координаты из первой системы во вторую.

 Пример: Функция перехода на S¹

   Пересечение: U₁ ∩ U₂ = S¹ \ {(−1,0), (1,0)} — две дуги

   +--------------------+-------------+-------------+---------------+
   | ДУГА               | φ₁ даёт     | φ₂ даёт     | ψ₁₂(θ) =      |
   +--------------------+-------------+-------------+---------------+
   | Верхняя (sin>0) | θ ∈ (0, π)  | θ ∈ (0, π)  | θ (тождество) |
   | Нижняя (sin<0)  | θ ∈ (−π, 0) | θ ∈ (π, 2π) | θ + 2π        |
   +--------------------+-------------+-------------+---------------+

 Ключевой факт: Функция перехода ψ₁₂: ℝⁿ → ℝⁿ — обычное отображение.
 Мы умеем с ним работать. Если потребовать гладкость ψ₁₂ → гладкая структура.

-------------------------------------------------------------------------------
 Гладкая структура — какие переходы разрешены
-------------------------------------------------------------------------------

 +------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ГЛАДКИЙ АТЛАС                                 |
 +------------------------------------------------------------+
 |                                                            |
 | Атлас называется Cᵏ-гладким (или гладким класса Cᵏ), если  |
 | все функции перехода ψαβ являются Cᵏ-гладкими (k раз       |
 | непрерывно дифференцируемыми).                             |
 |                                                            |
 | C∞-гладкий атлас: все переходы бесконечно дифференцируемы. |
 | Такой атлас называют просто "гладким".                     |
 |                                                            |
 +------------------------------------------------------------+

 +------------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ГЛАДКОЕ МНОГООБРАЗИЕ                                      |
 +------------------------------------------------------------------------+
 |                                                                        |
 | Гладкое многообразие размерности n — это топологическое пространство M |
 | с максимальным C∞-гладким атласом.                                     |
 |                                                                        |
 | технические требования (обычно подразумеваются):                       |
 | • Хаусдорфовость: различные точки отделимы окрестностями               |
 | • Счётная база: топология имеет счётную базу                           |
 | (Без них возникают патологии, например "длинная прямая")               |
 |                                                                        |
 | (Максимальный = содержит все карты, совместимые с данными)             |
 |                                                                        |
 +------------------------------------------------------------------------+

 Иерархия структур:

   +---------------------------------------------------------------------+
   | ТИП МНОГООБРАЗИЯ      | ФУНКЦИИ ПЕРЕХОДА    | ЧТО МОЖНО ДЕЛАТЬ      |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | Топологическое        | Гомеоморфизмы       | Говорить о близости,  |
   |                       | (непрерывные)       | связности, но не о    |
   |                       |                     | производных           |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | C¹-гладкое            | Дифференцируемые    | Определять касательные|
   |                       | (1 производная)     | векторы               |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | C∞-гладкое            | Бесконечно          | Дифференцировать      |
   | (просто "гладкое")    | дифференцируемые    | сколько угодно раз    |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | Аналитическое (Cω)    | Аналитические       | Раскладывать в ряды   |
   |                       | (ряд Тейлора)       | Тейлора               |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+

 Зачем нужна гладкость:

   Задача: определить производную функции f: M → ℝ на многообразии

   Ответ: Работаем в координатах.
     1. Выбираем карту (U, φ) около точки p
     2. Рассматриваем f ∘ φ⁻¹: ℝⁿ → ℝ (обычная функция)
     3. Дифференцируем как обычно

   Проблема: А если выбрать другую карту?

   Решение: Если функции перехода гладкие, то:
     ∂f/∂x' = (∂x/∂x') · (∂f/∂x)  (правило цепочки)
     Производные в разных картах согласованы.

-------------------------------------------------------------------------------
 Подробный пример: атлас для сферы S²
-------------------------------------------------------------------------------

 S² = {(x, y, z) ∈ ℝ³ : x² + y² + z² = 1}

 Способ 1: стереографическая проекция (минимальный атлас — 2 карты)

 Карта 1: Проекция с северного полюса N = (0, 0, 1)

          N ●
           /|\
          / | \           Проецируем точку P на плоскость z = 0
         /  |  \          через прямую NP
        /   |   \
       ●----+----●
      P     |    φ₁(P)
       \    |   /
        \   |  /
         ---+---  плоскость z = 0

   U₁ = S² \ {N}  (вся сфера без северного полюса)

   φ₁(x, y, z) = (x/(1−z), y/(1−z))

   φ₁⁻¹(u, v) = (2u/(1+u²+v²), 2v/(1+u²+v²), (u²+v²−1)/(1+u²+v²))

 Карта 2: Проекция с южного полюса S = (0, 0, −1)

   U₂ = S² \ {S}  (вся сфера без южного полюса)

   φ₂(x, y, z) = (x/(1+z), y/(1+z))

 Функция перехода ψ₁₂ = φ₂ ∘ φ₁⁻¹:

   На пересечении U₁ ∩ U₂ = S² \ {N, S}:

   ψ₁₂(u, v) = (u, v)/(u² + v²) = (u/(u²+v²), v/(u²+v²))

   Это инверсия относительно единичной окружности.

   Проверка гладкости: ψ₁₂ бесконечно дифференцируема на ℝ² \ {0}. ✓
   (Начало координат соответствует полюсам, которые не входят в пересечение)

 Способ 2: проекции на координатные плоскости (6 карт)

 +-------+-------------+------------------+--------------------+
 | КАРТА | ОБЛАСТЬ Uₖ± | ОТОБРАЖЕНИЕ φ    | КАКАЯ ЧАСТЬ        |
 +-------+-------------+------------------+--------------------+
 | U₁⁺   | z > 0    | φ(x,y,z) = (x,y) | Верхняя полусфера  |
 | U₁⁻   | z < 0    | φ(x,y,z) = (x,y) | Нижняя полусфера   |
 | U₂⁺   | y > 0    | φ(x,y,z) = (x,z) | Передняя полусфера |
 | U₂⁻   | y < 0    | φ(x,y,z) = (x,z) | Задняя полусфера   |
 | U₃⁺   | x > 0    | φ(x,y,z) = (y,z) | Правая полусфера   |
 | U₃⁻   | x < 0    | φ(x,y,z) = (y,z) | Левая полусфера    |
 +-------+-------------+------------------+--------------------+

 Аналогия: атлас мира использует разные проекции для разных регионов.

 Замечание: Не существует атласа S² из одной карты.
   Это следует из компактности S² и того, что ℝ² некомпактно.
   Топологически S² ≠ ℝ² (одно компактно, другое нет).

-------------------------------------------------------------------------------
 Иерархия пространств — от простого к сложному
-------------------------------------------------------------------------------

   Топологическое пространство (X, τ)
     | добавляем: локальную евклидовость + хаусдорфовость
     ↓
   Топологическое многообразие
     | добавляем: гладкую структуру (C∞ функции перехода)
     ↓
   Гладкое многообразие ← основной объект дифференциальной геометрии
     | добавляем: метрику gᵢⱼ (способ измерять расстояния)
     ↓
   Риманово многообразие
     | добавляем: физику (уравнения Эйнштейна)
     ↓
   Пространство-время ОТО

 На каждом уровне добавляется структура, но не теряется предыдущая.

-------------------------------------------------------------------------------
 Касательное пространство TₚM — локальная линейность
-------------------------------------------------------------------------------

 Задача: определить понятие скорости на кривом пространстве

 На ℝⁿ просто: скорость = вектор = стрелка.
 На сфере: куда указывает стрелка? Она "вылетает" из сферы.

 Определение (интуитивное):
   Касательный вектор в точке p — это скорость кривой, проходящей через p.

 Определение (формальное через кривые):
   Пусть γ: (−ε, ε) → M — гладкая кривая, γ(0) = p.
   Касательный вектор: v = γ'(0) = dγ/dt|_{t=0}

   Множество всех касательных векторов в точке p образует
   касательное пространство TₚM.

-------------------------------------------------------------------------------
 Три эквивалентных определения касательного вектора
-------------------------------------------------------------------------------

 1. Геометрическое (классы эквивалентности кривых):
    Две кривые γ₁, γ₂ с γ₁(0) = γ₂(0) = p эквивалентны, если
    (φ ∘ γ₁)'(0) = (φ ∘ γ₂)'(0) в любой карте φ.
    Касательный вектор = класс эквивалентности кривых.
    Интуиция: неважно сама кривая, важна только её "скорость" в p.

 2. Алгебраическое (через дифференцирования):
    Касательный вектор = линейный оператор v: C∞(M) → ℝ с правилом Лейбница.

 3. Координатное:
    Касательный вектор = набор чисел (v¹, ..., vⁿ), преобразующийся
    по правилу v'ⁱ = (∂x'ⁱ/∂xʲ)vʲ при смене координат.

 Все три определения эквивалентны — дают одно и то же TₚM ≅ ℝⁿ.

 Визуализация:

                    TₚM (плоскость, касательная к сфере в точке p)
                   ╱ ╲
                  ╱   ╲  ← векторы скорости живут здесь
                 ╱  ●  ╲
                ╱   p   ╲
            ---●---------●---
              ╱    ⌒      ╲   ← сфера (многообразие M)
             ╱             ╲

 В координатах:
   Пусть (U, φ) — карта около p с координатами (x¹, ..., xⁿ).
   Базис TₚM:  ∂/∂x¹|ₚ, ∂/∂x²|ₚ, ..., ∂/∂xⁿ|ₚ

   Любой вектор v ∈ TₚM: v = vⁱ ∂/∂xⁱ|ₚ  (сумма по i)

-------------------------------------------------------------------------------
 Важно: Почему ∂/∂xⁱ — это "векторы"?
-------------------------------------------------------------------------------

 В линейной алгебре вектор — это "стрелка" или "столбец чисел".
 На многообразии это не работает: стрелка "вылетает" из кривой поверхности.

 Решение: Определить вектор как дифференцирование.

   Касательный вектор v в точке p — это линейный оператор v: C∞(M) → ℝ,
   удовлетворяющий правилу Лейбница:
       v(fg) = v(f)·g(p) + f(p)·v(g)

   ∂/∂xⁱ|ₚ — это оператор: f ↦ ∂f/∂xⁱ|ₚ (частная производная в точке p).
   Он удовлетворяет Лейбницу, значит — касательный вектор.

 Интуиция: Вектор — это "направление изменения функций".
   Стрелка → "как быстро и куда меняется значение функции при движении".

 Ключевые факты:

 +---------------------------+----------------------------------+
 | ФАКТ                      | СЛЕДСТВИЕ                        |
 +---------------------------+----------------------------------+
 | TₚM ≅ ℝⁿ                  | Линейная алгебра работает.       |
 | dim(TₚM) = dim(M)         | Размерность сохраняется          |
 | Разные точки → разные TₚM | Нельзя сложить v ∈ TₚM и w ∈ TᵧM |
 | Базис: ∂/∂xⁱ              | v = vⁱ ∂/∂xⁱ (сумма по i)        |
 +---------------------------+----------------------------------+

 +---------------------+------------------------------------------+
 | ФИЗИЧЕСКАЯ ВЕЛИЧИНА | МАТЕМАТИЧЕСКИЙ ОБЪЕКТ                    |
 +---------------------+------------------------------------------+
 | Положение           | Точка p ∈ M                              |
 | Скорость            | Вектор v ∈ TₚM                           |
 | Ускорение           | Требует связности (сравнение разных TₚM) |
 +---------------------+------------------------------------------+

-------------------------------------------------------------------------------
 Гладкие отображения многообразий
-------------------------------------------------------------------------------

 +-----------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ГЛАДКОЕ ОТОБРАЖЕНИЕ                                |
 +-----------------------------------------------------------------+
 |                                                                 |
 | Отображение f: M → N между гладкими многообразиями называется   |
 | гладким, если для любых карт (U, φ) на M и (V, ψ) на N          |
 | композиция ψ ∘ f ∘ φ⁻¹ : ℝᵐ → ℝⁿ гладкая (как обычная функция).  |
 |                                                                 |
 +-----------------------------------------------------------------+

 Диаграмма:

      M ----------f----------→ N
      |                        |
    φ |                        | ψ
      ↓                        ↓
     ℝᵐ -----ψ∘f∘φ⁻¹--------→ ℝⁿ
            (гладкая)

 Дифференциал отображения:

   Гладкое f: M → N порождает линейное отображение
   df_p: TₚM → T_{f(p)}N  (дифференциал или pushforward)

   Это "линейное приближение" f около точки p.

 +------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ: ДИФФЕОМОРФИЗМ                                       |
 +------------------------------------------------------------------+
 |                                                                  |
 | Диффеоморфизм — это гладкая биекция f: M → N такая, что f⁻¹ тоже |
 | гладкая. Это "изоморфизм" в категории гладких многообразий.      |
 |                                                                  |
 | Если существует диффеоморфизм M → N, пишем M ≅ N (диффеоморфны). |
 |                                                                  |
 +------------------------------------------------------------------+

 Иерархия "одинаковости":

   Гомеоморфизм: M ≈ N (топологически)  — одинаковая "форма"
   Диффеоморфизм: M ≅ N (гладко)        — одинаковая "гладкая структура"
   Изометрия: M = N (метрически)        — одинаковые "расстояния"

 Пример: S² ≈ эллипсоид (гомеоморфны)
         S² ≅ эллипсоид (диффеоморфны)
         S² ≠ эллипсоид (не изометричны — разная кривизна)


 Примеры многообразий
+---------------+-----+------------------------------------------------------+
| МНОГООБРАЗИЕ  | dim | ЧТО ЭТО / ГДЕ ВСТРЕЧАЕТСЯ                            |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Окружность S¹ | 1   | Угол поворота, фаза волны, время на часах            |
|               |     | Минимальный атлас: 2 карты                           |
|               |     | π₁(S¹) = ℤ (петли наматываются)                      |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Сфера S²      | 2   | Поверхность Земли, направление в пространстве        |
|               |     | Минимальный атлас: 2 карты (стереографич. проекции)  |
|               |     | π₁(S²) = 0, H₂(S²) = ℤ                               |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Тор T²        | 2   | Бублик, периодические граничные условия              |
|               |     | = S¹ × S¹ (два независимых угла)                     |
|               |     | π₁(T²) = ℤ × ℤ (две независимые петли)               |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| ℝPⁿ (проект.) | n   | "Направления прямых" (прямая = пара противоп. точек) |
|               |     | ℝP² неориентируемо. (как лента Мёбиуса)              |
|               |     | π₁(ℝPⁿ) = ℤ/2 при n ≥ 2                              |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| SO(3)         | 3   | Все вращения в 3D (ориентация тела)                  |
|               |     | ≅ ℝP³, не сфера.                                     |
|               |     | π₁(SO(3)) = ℤ/2 (фокус с ремнём)                    |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| GL(n,ℝ)       | n²  | Обратимые матрицы n×n                                |
|               |     | Открытое подмножество ℝⁿ² (det ≠ 0)                  |
|               |     | Группа Ли — многообразие + группа.                   |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Пространство- | 4   | 3 пространственных + 1 временнóе измерение           |
| время         |     | Искривлено массой → гравитация.                      |
|               |     | Псевдориманово (метрика не положительно определена)  |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+

-------------------------------------------------------------------------------
 Связность — как сравнивать векторы в разных точках
-------------------------------------------------------------------------------

 Проблема:
   На ℝⁿ можно сравнить векторы в разных точках — просто "перенести".
   На кривом пространстве это невозможно без дополнительной структуры.

   Вектор в Москве и вектор в Сиднее — как сравнить, если Земля круглая?

 Решение: Связность (connection)
   Связность = правило, определяющее "параллельный перенос" вектора
   вдоль кривой.

 Визуализация параллельного переноса:

   Плоскость (кривизна = 0): сфера (кривизна > 0):

       B ●----------● C                   B ●-----● C
         |  ----→   |                      /   →   \
         |  ----→   |                     / ↗   ↘   \
         |  ----→   |                    /           \
       A ●----------● D                A ●-----------● D
         ↑          ↑                    ↖           ↗
       Вектор    Тот же                Вектор    другой
       в A      вектор.                в A       вектор.

   На плоскости: перенос по контуру A→B→C→D→A возвращает тот же вектор.
   На сфере: вектор поворачивается. Угол поворота = кривизна × площадь.

 Пример на сфере:

                     Северный полюс
                          ●
                         /|\
                        / | \
                       /  ↓  \
                      /   |   \      1. Начинаем на экваторе с вектором →
       Экватор ------●----|----●     2. Идём на север до полюса
                     |    |    |     3. Поворачиваем на 90° и идём на юг
                     |    |    |     4. Вектор теперь указывает ↑
                     |    |    |        (повернулся на 90°.)
                     ●----+----●

 Пояснение терминов (прежде чем читать формулы):

 Γ(TM) — "сечения касательного расслоения" — это просто векторные поля.
   Векторное поле X — это выбор вектора X(p) ∈ TₚM в каждой точке p ∈ M.
   Пример: поле ветра на Земле — в каждой точке задан вектор скорости.

 (Xf) или X(f) — действие векторного поля X на функцию f: M → ℝ.
   Это производная f в направлении X: (Xf)(p) = скорость изменения f
   в точке p, если двигаться в направлении X(p).
   В координатах: если X = Xⁱ∂/∂xⁱ, то Xf = Xⁱ(∂f/∂xⁱ).
   Пример: X = "на восток", f = температура. Xf = "как быстро теплеет
   при движении на восток".

 [X,Y] — скобка Ли (коммутатор) двух векторных полей.
   Определение: [X,Y](f) = X(Y(f)) − Y(X(f))
   Смысл: [X,Y] измеряет, насколько операции "сдвинуться по X" и
   "сдвинуться по Y" не коммутируют.
   Если [X,Y] = 0, то X и Y "совместимы" — порядок движения не важен.
   Пример: [∂/∂x, ∂/∂y] = 0 (сдвиг по x и по y коммутируют).

 Математическое определение:

   Связность ∇ — это отображение
   ∇: Γ(TM) × Γ(TM) → Γ(TM)
   (X, Y) ↦ ∇_X Y  (производная Y в направлении X)

   удовлетворяющее:
   • ∇_{fX}Y = f∇_X Y  (линейно по X с коэффициентами из функций)
   • ∇_X(Y+Z) = ∇_X Y + ∇_X Z  (линейно по Y)
   • ∇_X(fY) = (Xf)Y + f∇_X Y  (правило Лейбница)

 В координатах:

   ∇_{∂/∂xⁱ}(∂/∂xʲ) = Γᵏᵢⱼ (∂/∂xᵏ)

   Γᵏᵢⱼ — символы Кристоффеля (n³ функций)

   Смысл символов Кристоффеля:

   Γᵏᵢⱼ показывает: когда я двигаюсь в направлении i, как базисный вектор
   ∂/∂xʲ "поворачивается" в направлении k?

   На плоскости: Γ = 0 везде (базисные векторы не меняются при движении)
   На сфере: Γ ≠ 0 (при движении "направление на север" поворачивается)

   Аналогия: Представьте, что несёте длинный шест по поверхности.
   На плоскости шест сохраняет направление сам по себе.
   На сфере нужно постоянно "подруливать", чтобы сохранить параллельность.
   Γᵏᵢⱼ = величина этого "подруливания".

   Для метрической связности (Леви-Чивита):
   Γᵏᵢⱼ = ½gᵏˡ(∂gᵢˡ/∂xʲ + ∂gⱼˡ/∂xⁱ − ∂gᵢⱼ/∂xˡ)

   Эта формула говорит: символы Кристоффеля полностью определяются
   метрикой gᵢⱼ и её производными. Геометрия → связность автоматически.

 Критически важно: Γᵏᵢⱼ — не тензор.

   При замене координат появляется добавочный член с вторыми производными:

   Γ'ᵏᵢⱼ = (∂x'ᵏ/∂xˡ)(∂xᵐ/∂x'ⁱ)(∂xⁿ/∂x'ʲ)Γˡₘₙ + (∂x'ᵏ/∂xˡ)(∂²xˡ/∂x'ⁱ∂x'ʲ)
                      ↑                            ↑
               тензорная часть              НЕтензорная добавка

   Именно поэтому Γ зависит от выбора координат.
   На плоскости в декартовых Γ = 0, а в полярных Γ ≠ 0.
   Но плоскость осталась плоской — изменились только координаты.

   Следствие: Нельзя сказать "Γ = 0 значит пространство плоское".
   Можно сказать: "Существуют координаты, в которых Γ = 0" ⟺ плоское.

 Типы связностей:
 +--------------+-----------------------------------------------+
 | ТИП          | СВОЙСТВО                                      |
 +--------------+-----------------------------------------------+
 | Метрическая  | Сохраняет скалярное произведение при переносе |
 | Без кручения | ∇_X Y − ∇_Y X = [X,Y]                         |
 | Леви-Чивита  | Метрическая + без кручения (единственная)     |
 +--------------+-----------------------------------------------+

-------------------------------------------------------------------------------
 Кривизна — мера неплоскости
-------------------------------------------------------------------------------

 Как обнаружить кривизну (без выхода в объемлющее пространство):

+-------------------+-------------------------------------------------+
| МЕТОД             | ЧТО ПРОИСХОДИТ                                  |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Параллельный      | Плоскость: вектор вернулся тем же               |
| перенос по        | Кривое: вектор повернулся                       |
| замкнутому пути   |                                                 |
|                   |                                                 |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Сумма углов       | Плоскость: α+β+γ = 180°                         |
| треугольника      | Сфера: α+β+γ > 180° (положит. кривизна)      |
|                   | Седло: α+β+γ < 180° (отрицат. кривизна)      |
|                   |                                                 |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Тензор Римана     | Rⁱⱼₖₗ = поворот vⁱ при обходе                    |
| (формальное опр.) | беск. малого параллелограмма в направлениях k,l |
|                   |                                                 |
+-------------------+-------------------------------------------------+

 Физика: кривизна = гравитация (ото)

 +----------------------------+--------------------------------------+
 | ПРИЧИНА                    | СЛЕДСТВИЕ                            |
 +----------------------------+--------------------------------------+
 | Масса/энергия              | Искривляет пространство-время        |
 | Тела движутся по геодезич. | Выглядит как притяжение = геометрия. |
 | Уравнение Эйнштейна        | Rμν − ½gμνR = 8πG·Tμν                |
 |                            | (кривизна = материя)                 |
 +----------------------------+--------------------------------------+


 Связь с другими разделами

+----------------+-------------------------------------------------------+
| РАЗДЕЛ         | КАК СВЯЗАН С МНОГООБРАЗИЯМИ                           |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Топология      | Многообразие = топ. пространство + гладкая структура  |
|                | Инварианты π₁, Hₙ, χ работают для многообразий        |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Группы         | Группы Ли = многообразия + групповая структура        |
|                | SO(3), SU(2), GL(n) — и группы, и многообразия        |
|                | Алгебра Ли = T_e (касательное пространство в единице) |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Лин. алгебра   | TₚM — векторное пр-во в каждой точке                  |
|                | Локально вся линейная алгебра работает.               |
|                | Связность = способ "соединять" TₚM в разных точках    |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Двойственность | T*ₚM — кокасательное (где живут df, dp)               |
|                | Вектор: куда двигаться. Ковектор: как измерять        |
|                | Дифференциальные формы ∈ ∧ᵏT*M                        |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Тензоры        | Тензорное поле = тензор в каждой точке                |
|                | Метрика gᵢⱼ — поле (0,2). Кривизна Rⁱⱼₖₗ — поле (1,3)  |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Нётер          | Симметрии многообразия → законы сохранения            |
|                | Сдвиги → импульс. Вращения → момент импульса          |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Категории      | Man = категория гладких многообразий                  |
|                | Функтор T: Man → VectBund (касательное расслоение)    |
|                |                                                       |
+----------------+-------------------------------------------------------+

 Резюме: многообразие как центральный объект


                          Многообразие M
                               |
         +---------------------+---------------------+
         |                     |                     |
         ↓                     ↓                     ↓
    Локально              Глобально            Структуры
    ≈ ℝⁿ                  (топология)          на многообразии
    (карты, атлас)        (π₁, Hₙ, χ)          (метрика, связность)
         |                     |                     |
         ↓                     ↓                     ↓
    Можно                 Различаем            Измеряем
    дифференцировать      пространства         расстояния
    (TₚM, df)             (инварианты)         (gᵢⱼ, кривизна)

 Главная идея:
   Многообразие — это способ локально использовать знакомые инструменты
   (координаты, производные, интегралы) на глобально сложных пространствах.

 Практические приложения:
   • Физика: пространство-время, конфигурационное пространство
   • Робототехника: пространство состояний (положений и ориентаций)
   • Машинное обучение: многообразие данных (manifold hypothesis)
   • Оптимизация: оптимизация на многообразиях (Риманова оптимизация)

-------------------------------------------------------------------------------
 Прикладной пример: поверхность лопатки турбины
-------------------------------------------------------------------------------

 Задача: Рассчитать теплообмен на поверхности лопатки газовой турбины.
 Поверхность имеет сложную криволинейную форму — нет "естественных" x, y.

           ╭---------------╮
          ╱                 ╲        Поверхность S — 2D многообразие,
         ╱                   ╲       вложенное в ℝ³
        |      ЛОПАТКА        |
         ╲                   ╱       Нужны локальные координаты (u, v)
          ╲                 ╱        на поверхности
           ╰---------------╯

 Локальные координаты:
   u — вдоль хорды профиля (0 = передняя кромка, 1 = задняя)
   v — вдоль размаха (0 = корень, 1 = вершина)

   Точка на поверхности: r(u, v) = (x(u,v), y(u,v), z(u,v))

 Метрика на поверхности:
   Как измерить расстояние между двумя точками на лопатке?

   ds² = g₁₁ du² + 2g₁₂ du dv + g₂₂ dv²

   где gᵢⱼ = ∂r/∂uⁱ · ∂r/∂uʲ — компоненты метрического тензора

 Площадь элемента поверхности:
   dA = √(g₁₁g₂₂ − g₁₂²) du dv = √det(g) du dv

 Интеграл теплового потока:
   Q = ∬_S q(u,v) dA = ∬ q(u,v) √det(g) du dv

   Метрика "знает", как искажаются площади при переходе от плоского
   (u,v)-пространства к реальной изогнутой поверхности.

 Численный пример:
   Если в плоских координатах q = 50 кВт/м² = const,
   но лопатка изогнута так, что √det(g) ≈ 1.3 (площадь "растянута"),
   то реальный поток Q = 50 × 1.3 × A₍ᵤᵥ₎ = 65 кВт на единицу (u,v)-площади


 Мораль: Многообразие = способ работать с криволинейными поверхностями
 через локальные координаты. Метрика gᵢⱼ "переводит" формулы из плоского
 случая в криволинейный. Без этого языка — невозможны расчёты для турбин,
 теплообменников сложной формы, аэродинамических поверхностей.

-------------------------------------------------------------------------------
Связность и кривизна — как сравнивать векторы в разных точках
-------------------------------------------------------------------------------

 Проблема: как сравнить векторы в разных точках?


 В ℝⁿ это тривиально: параллельно перенеси и сравни.

 На искривлённой поверхности — непонятно.

              вектор в точке A
                    ↗
                   A ------------------- B
                  ╱                       ╲      вектор в точке B
                 ╱    искривлённая         ╲          ↘
                ╱      поверхность          ╲

   Вектор в A и вектор в B живут в разных касательных пространствах.
   Их нельзя напрямую сложить или вычесть.

   Нужно правило: как "перенести" вектор из A в B для сравнения.


 Связность = правило параллельного переноса


 Связность ∇ — это правило, как дифференцировать векторные поля.

   ∇_X Y = "производная поля Y в направлении X"

 Ковариантная производная:
   В координатах: ∇_∂ᵢ ∂ⱼ = Γᵏᵢⱼ ∂ₖ

   Γᵏᵢⱼ — символы Кристоффеля (коэффициенты связности)

 Для метрики (связность Леви-Чивиты):

   Γᵏᵢⱼ = ½gᵏˡ(∂ᵢgⱼˡ + ∂ⱼgᵢˡ − ∂ˡgᵢⱼ)

   Эта связность:
   • Сохраняет метрику: ∇g = 0
   • Без кручения: Γᵏᵢⱼ = Γᵏⱼᵢ
   • Единственная с такими свойствами.

-------------------------------------------------------------------------------
 Параллельный перенос — визуализация
-------------------------------------------------------------------------------

 Вектор "параллельно переносится" вдоль кривой γ(t), если:

   ∇_γ̇ V = 0    (ковариантная производная вдоль кривой = 0)

 На плоскости: Параллельный перенос очевиден — направление сохраняется.

 На сфере — сюрприз.

        Северный полюс
              N
             /|\
   вектор → / | \
           /  |  \   Перенеси вектор по замкнутому пути:
          A---+---B  N → A → B → N
              |
              |      Вектор повернулся

   Угол поворота = площадь треугольника / R² (где R — радиус сферы)

   Этот поворот — проявление кривизны.

-------------------------------------------------------------------------------
 Кривизна — мера "неплоскости"
-------------------------------------------------------------------------------

 Тензор кривизны Римана:

   R(X, Y)Z = ∇_X ∇_Y Z − ∇_Y ∇_X Z − ∇_[X,Y] Z

 Что это измеряет:
   Перенеси вектор Z сначала в направлении X, потом Y.
   Потом в направлении Y, потом X.
   Разница = R(X, Y)Z.

   Если R = 0 везде — пространство плоское (локально как ℝⁿ).

 В координатах:
   Rᵏₗᵢⱼ = ∂ᵢΓᵏⱼₗ − ∂ⱼΓᵏᵢₗ + ΓᵏᵢₘΓᵐⱼₗ − ΓᵏⱼₘΓᵐᵢₗ

 Важные свёртки:
   • Тензор Риччи: Rᵢⱼ = Rᵏᵢₖⱼ
   • Скалярная кривизна: R = gⁱʲRᵢⱼ

 Для поверхности (2d):
   K = R/2 — гауссова кривизна
   K > 0: сфера (положительная кривизна)
   K = 0: плоскость, цилиндр
   K < 0: седло (отрицательная кривизна)

-------------------------------------------------------------------------------
 Геодезические — "прямые" на искривлённом пространстве
-------------------------------------------------------------------------------

 Определение: Геодезическая — кривая, параллельно переносящая свой вектор
              скорости:

              ∇_γ̇ γ̇ = 0

 В координатах (уравнение геодезической):

              d²xᵏ/dt² + Γᵏᵢⱼ (dxⁱ/dt)(dxʲ/dt) = 0

 Примеры:
   • На плоскости: прямые линии
   • На сфере: большие круги (экватор, меридианы)
   • В ОТО: траектории свободных частиц в гравитационном поле

 Эквивалентные определения:
   1. Кривая кратчайшей длины (локально)
   2. Кривая, экстремизирующая ∫ ds
   3. Кривая с нулевым геодезическим ускорением

 Важно: геодезическая — это локальный минимум длины, не глобальный.
     На сфере из A в B можно идти "коротким" или "длинным" путём —
     оба геодезические.

-------------------------------------------------------------------------------
 Theorema egregium Гаусса — глубокий результат
-------------------------------------------------------------------------------

 Гауссова кривизна K зависит только от метрики gᵢⱼ, но не от того,
 как поверхность вложена в ℝ³.

 Следствие: Нельзя без искажений нарисовать карту сферы на плоскости.

   Сфера: K = 1/R² > 0
   Плоскость: K = 0

   Любая карта мира обязательно искажает либо углы, либо площади.
   (Меркатор искажает площади, равновеликие — углы)

 А вот цилиндр можно развернуть в плоскость без искажений.
   Цилиндр: K = 0 (одна из главных кривизн равна нулю)


 Связь с физикой: общая теория относительности


 Уравнения Эйнштейна:

   Rᵢⱼ − ½Rgᵢⱼ = (8πG/c⁴) Tᵢⱼ

   Левая часть: геометрия (кривизна пространства-времени)
   Правая часть: материя (тензор энергии-импульса)

 Траектории свободно падающих тел = геодезические в искривлённом
 пространстве-времени. Гравитация — не сила, а геометрия.


-------------------------------------------------------------------------------
Расслоения — пространства над пространствами
-------------------------------------------------------------------------------

 Мотивация: касательные векторы ко всем точкам


 На многообразии M в каждой точке p есть касательное пространство TₚM.

 Вопрос: Как организовать все касательные пространства в единую структуру?

 Ответ: Объединим их в расслоение:

              TM = ⋃_{p∈M} TₚM

   Это новое многообразие — касательное расслоение.
   dim(TM) = 2·dim(M)

-------------------------------------------------------------------------------
 Определение: расслоение
-------------------------------------------------------------------------------

 Расслоение — это тройка (E, π, B), где:

   E — тотальное пространство (всё расслоение целиком)
   B — база (пространство, над которым расслаивается)
   π: E → B — проекция

   Для каждой точки b ∈ B прообраз π⁻¹(b) = F называется слоем.

 Визуализация:

       E (тотальное пространство)
       |
       |    F₁    F₂    F₃    ← слои (все изоморфны F)
       |    |     |     |
       |    |     |     |
       ▼    ▼     ▼     ▼
       ----●-----●-----●----  B (база)
           b₁    b₂    b₃

 Локально: E ≅ U × F (произведение окрестности U ⊂ B и слоя F)
 Глобально: может быть скручено.

-------------------------------------------------------------------------------
 Тривиальное vs нетривиальное расслоение
-------------------------------------------------------------------------------

 Тривиальное: E = B × F глобально (просто произведение)

   Пример: цилиндр = S¹ × ℝ

         +-----------+
         |           |
         |  цилиндр  |     База: окружность S¹
         |           |     Слой: прямая ℝ
         +-----------+

 Нетривиальное: глобально не раскладывается в произведение

   Пример: лента Мёбиуса.

         +-----╲╱-----+
         |     ╲╱     |    База: S¹ (окружность)
         |      ╳     |    Слой: отрезок [-1, 1]
         |     ╱╲     |    Но глобально — скручено.
         +-----╱╲-----+

   Обойдя базу по кругу, слой переворачивается.


 Главные типы расслоений
+------------------------+----------+---------------------------------+
| РАССЛОЕНИЕ             | СЛОЙ F   | ПРИМЕР                          |
+------------------------+----------+---------------------------------+
| Касательное TM         | ℝⁿ       | Все скорости в точке            |
+------------------------+----------+---------------------------------+
| Кокасательное T*M      | ℝⁿ       | Все импульсы в точке            |
+------------------------+----------+---------------------------------+
| Тензорное              | Тензоры  | Все тензоры типа (p,q) в точке  |
+------------------------+----------+---------------------------------+
| Главное (G-расслоение) | Группа G | Калибровочные поля в физике     |
+------------------------+----------+---------------------------------+
| Расслоение реперов     | GL(n)    | Все базисы касательного простр. |
+------------------------+----------+---------------------------------+

-------------------------------------------------------------------------------
 Сечение расслоения = поле на многообразии
-------------------------------------------------------------------------------

 Сечение s: B → E — это отображение, где π(s(b)) = b для всех b.
 (Выбираем по одной точке из каждого слоя)

   • Сечение tm = векторное поле на M
   • Сечение T*M = 1-форма на M
   • Сечение тензорного расслоения = тензорное поле

 Пример: Поле скоростей ветра — сечение касательного расслоения TS²
         (S² = поверхность Земли)

 Теорема о "волосатом шаре" (Hairy Ball Theorem):
   На S² не существует непрерывного ненулевого векторного поля.
   (Нельзя причесать ёжика — где-то будет "вихор")

   Причина: касательное расслоение TS² — нетривиально.

-------------------------------------------------------------------------------
 Связность на расслоении — как переносить между слоями
-------------------------------------------------------------------------------

 Связность на расслоении = правило, как переносить элемент слоя
 вдоль пути на базе.

 Для касательного расслоения:
   Связность = символы Кристоффеля Γᵏᵢⱼ
   Это то, что мы определили выше

 Для главного g-расслоения:
   Связность = 1-форма A со значениями в алгебре Ли g
   В физике: A — калибровочный потенциал.

 Кривизна расслоения:
   F = dA + A ∧ A   (2-форма кривизны)
   В физике: F — напряжённость поля.

   Электромагнетизм: G = U(1), A = потенциал, F = E, B
   Стандартная модель: G = SU(3)×SU(2)×U(1)


-------------------------------------------------------------------------------
Характеристические классы — топология расслоений
-------------------------------------------------------------------------------

 Идея: измерение "скрученности" расслоения


 Расслоение может быть тривиальным (E = B × F) или нетривиальным.
 Характеристические классы — это числовые инварианты, измеряющие
 "насколько расслоение скручено".

 Они живут в когомологиях базы: cᵢ ∈ H*(B)

 Если класс ненулевой — расслоение точно нетривиально.
 Если нулевой — может быть тривиально, а может и нет (необходимо, не доста)

-------------------------------------------------------------------------------
 Классы Черна — для комплексных расслоений
-------------------------------------------------------------------------------

 Для комплексного векторного расслоения E → B определены:

   c₀(E) = 1,  c₁(E),  c₂(E),  .,  cₙ(E)   где n = dim_ℂ(E)

   cₖ(E) ∈ H²ᵏ(B; ℤ)   — класс Черна степени k

 Ключевые свойства:
   • c(E⊕F) = c(E) ∪ c(F)  (аддитивность относительно прямой суммы)
   • c(E*) = c̄(E)  (классы сопряжённого расслоения)
   • Для линейного расслоения L: c₁(L) = эйлеров класс

 Пример: Касательное расслоение сферы
   c₁(TS²) = 2 ∈ H²(S²) ≅ ℤ
   Это связано с теоремой о "волосатом шаре" и эйлеровой характеристикой.

-------------------------------------------------------------------------------
 Классы Понтрягина и Эйлера — для вещественных расслоений
-------------------------------------------------------------------------------

 Для вещественного расслоения E → B:

   pₖ(E) ∈ H⁴ᵏ(B; ℤ)   — класс Понтрягина
   e(E) ∈ Hⁿ(B; ℤ)     — класс Эйлера (если E ориентировано, n = rank E)

 Теорема Гаусса-Бонне-Черна:

   ∫_M e(TM) = χ(M)   (интеграл эйлерова класса = эйлерова характеристика)

   Это обобщение теоремы Гаусса-Бонне на любые размерности.

-------------------------------------------------------------------------------
 Применения в физике
-------------------------------------------------------------------------------

 Квантование магнитного монополя (Дирак):
   Магнитный заряд g квантуется: eg = nℏ/2
   Причина: первый класс Черна линейного расслоения над S² целочислен.

 Аномалии в квантовой теории поля:
   Калибровочные аномалии связаны с классами Черна расслоения
   калибровочной группы.

 Топологические изоляторы:
   Классы Черна электронных зон определяют квантовый эффект Холла.
   c₁ = 0, ±1, ±2, ... → холловская проводимость = c₁ · e²/h

-------------------------------------------------------------------------------
 Проективные пространства — геометрия "направлений"
-------------------------------------------------------------------------------

 Интуиция: Что такое проективное пространство

 Представим, что мы стоим в начале координат и смотрим в разные стороны.
 Каждое направление взгляда — это точка проективного пространства.

 Формально: Точки (x, y, z) и (2x, 2y, 2z) задают одно направление.
 Мы "склеиваем" все точки на одном луче из начала координат.

-------------------------------------------------------------------------------
 Определение
-------------------------------------------------------------------------------

 Вещественное проективное пространство ℝPⁿ:

   ℝPⁿ = (ℝⁿ⁺¹ \ {0}) / ~,  где  x ~ y ⟺ x = λy для λ ≠ 0

 Другими словами: ℝPⁿ = множество прямых в ℝⁿ⁺¹, проходящих через 0.

 Однородные координаты:
   Точка ℝPⁿ записывается как [x₀ : x₁ : . : xₙ]
   Это класс эквивалентности: [x₀ : x₁ : . : xₙ] = [λx₀ : λx₁ : . : λxₙ]

 Размерности:
   • ℝP¹ — проективная прямая (топологически = окружность S¹)
   • ℝP² — проективная плоскость (неориентируемая поверхность)
   • ℝP³ ≅ SO(3) — пространство вращений в 3D

-------------------------------------------------------------------------------
 Визуализация ℝP¹ и ℝP²
-------------------------------------------------------------------------------

 ℝP¹ — проективная прямая:

   Берём ℝ² \ {0} и склеиваем противоположные точки (x,y) ~ (-x,-y).

              y
              |    ╱
              |   ╱  ← эта прямая = одна точка ℝP¹
              |  ╱
        ------●------ x
             ╱|
            ╱ |

   Можно параметризовать наклоном: [1 : t] для t ∈ ℝ, плюс [0 : 1] (верт.)
   Это ℝ ∪ {∞} — прямая с добавленной "бесконечностью". Топологически = S¹.

 ℝp² — проективная плоскость:

   Берём полусферу и склеиваем противоположные точки на экваторе:

              ╭-------╮
            ╱    ●      ╲      Внутренность полусферы — обычная плоскость
           |      ●      |     Граница (экватор) — "бесконечность"
           |   ●    ●    |     Но точки A и A' на экваторе склеены.
            ╲   A    A' ╱
              ╰-------╯

   Результат: неориентируемая поверхность (содержит ленту Мёбиуса).
   Нельзя вложить в ℝ³ без самопересечений.

-------------------------------------------------------------------------------
 Зачем проективные пространства
-------------------------------------------------------------------------------

 1. параллельные прямые пересекаются "на бесконечности"

    В обычной геометрии параллельные прямые не пересекаются.
    В проективной — пересекаются в "бесконечно удалённой точке".

    Это упрощает многие теоремы: теорема Паппа, Дезарга, двойственность.

 2. компьютерная графика

    Однородные координаты [x : y : z : w] — стандарт в 3D-графике.
    Точка в 3D: [x : y : z : 1] → (x/1, y/1, z/1)
    Точка "на бесконечности": [x : y : z : 0] — направление

    Все преобразования (сдвиг, поворот, масштаб, перспектива) —
    это умножение на матрицу 4×4.

    Без однородных координат сдвиг — не линейное преобразование.
    С ними — линейное. Это огромное упрощение для GPU.

 3. алгебраическая геометрия

    Многие теоремы проще в проективном пространстве:

    Теорема Безу: Две кривые степеней m и n в ℙ² пересекаются
    ровно в mn точках (с учётом кратностей и бесконечности).

    В обычной плоскости: прямая и парабола могут не пересечься (0, 1 или 2).
    В проективной: прямая (степень 1) и коника (степень 2) — всегда 2 точки.

 4. физика: пространство состояний

    В квантовой механике чистое состояние — это луч в гильбертовом простр.
    |ψ⟩ и λ|ψ⟩ — одно состояние (глобальная фаза не наблюдаема).

    Для кубита: пространство состояний = ℂP¹ = сфера Блоха (S²).

-------------------------------------------------------------------------------
 Комплексное проективное пространство ℂPⁿ
-------------------------------------------------------------------------------

 Аналогично вещественному, но над ℂ:

   ℂPⁿ = (ℂⁿ⁺¹ \ {0}) / ~,  где  z ~ w ⟺ z = λw для λ ∈ ℂ \ {0}

 Важные случаи:

   • ℂP¹ = сфера Римана = ℂ ∪ {∞}
     Это компактификация комплексной плоскости.

   • ℂPⁿ — компактное кэлерово многообразие
     Центральный объект алгебраической геометрии

 Связь с физикой:
   Пространство состояний системы с n+1 уровнями = ℂPⁿ
   Сфера Блоха (кубит) = ℂP¹ ≅ S²

-------------------------------------------------------------------------------
 Проективные пространства как классы эквивалентности
-------------------------------------------------------------------------------

 Это ещё один пример конструкции через фактормножество:

   X = ℝⁿ⁺¹ \ {0}  (все ненулевые векторы)
   x ~ y ⟺ x = λy  (лежат на одном луче)
   ℝPⁿ = X/~       (множество классов = множество лучей = множество прямых)

 Каждый класс эквивалентности — это прямая через начало координат
 (без самого начала). Мы "сжали" каждую прямую в одну точку.


На многообразиях мы можем определять функции, векторные поля, тензоры.
Но как интегрировать? Обычный интеграл ∫f dx требует координат, а мы хотим
инвариантное определение.

-------------------------------------------------------------------------------
 Тензорное поле — тензор в каждой точке
-------------------------------------------------------------------------------

 Мы изучили тензоры как алгебраические объекты на одном векторном
 пространстве. Но на многообразии в каждой точке своё касательное
 пространство TₚM. Как "склеить" тензоры из разных точек?

 Тензорное поле — это выбор тензора в каждой точке многообразия,
 меняющийся гладко от точки к точке.

 +-----------------+-----------------------------------------------+
 | ПРИМЕР          | ЧТО ЭТО                                       |
 +-----------------+-----------------------------------------------+
 | Скалярное поле  | Функция f: M → ℝ (температура в каждой точке) |
 | Векторное поле  | Вектор v(p) ∈ TₚM в каждой точке (скорость)   |
 | Метрика gᵢⱼ     | Скалярное произведение в каждой TₚM           |
 | Тензор кривизны | Измеряет "искривлённость" в каждой точке      |
 +-----------------+-----------------------------------------------+

 В терминах "объект—наблюдатель": тензорное поле — это объект на
 многообразии. В каждой карте (системе координат наблюдателя) оно
 записывается компонентами gᵢⱼ(x). При смене карты компоненты меняются
 по закону преобразования тензоров — но само поле остаётся тем же.

 Метрика gᵢⱼ — главный пример: она задаёт расстояния и углы, но её
 компоненты зависят от выбора координат. Расстояние — инвариант.


Дифференциальные формы — это объекты, которые можно интегрировать на
многообразиях. Они объединяют все теоремы интегрирования (Грина, Стокса,
Гаусса) в одну — и это язык современной физики.

-------------------------------------------------------------------------------
Дифференциальные формы — язык современной физики
-------------------------------------------------------------------------------

 Формы как взгляд на пространство


 Дифференциальные формы — это объекты, которые "измеряют" куски пространства:

   • 1-форма измеряет кривые (работа силы вдоль пути)
   • 2-форма измеряет поверхности (поток через площадку)
   • 3-форма измеряет объёмы (масса в области)

 Формы — это "детекторы размерности": k-форма чувствует k-мерные объекты.
 Они позволяют интегрировать на многообразиях без координат.


 Зачем нужны дифференциальные формы


 Проблема: Интегралы зависят от того, что мы интегрируем

   • По кривой интегрируем работу:     ∫ F·dr  — это что-то одномерное
   • По поверхности — поток:           ∬ F·dS  — это что-то двумерное
   • По объёму — плотность:            ∭ ρ dV  — это что-то трёхмерное

 Задача: формализовать понятие "ориентированной площади"

 Ответ: дифференциальные формы — объекты, созданные для интегрирования

   • 0-форма — функция (интеграл = значение в точке)
   • 1-форма — интегрируется по кривым
   • 2-форма — интегрируется по поверхностям
   • n-форма — интегрируется по n-мерным областям

 Бонус: Теоремы Стокса, Грина, Гаусса — все становятся одной теоремой.

-------------------------------------------------------------------------------
 Что измеряет k-форма — физическая таблица
-------------------------------------------------------------------------------

 k-форма — это "детектор" для k-мерных объектов в пространстве.

 +---------+----------------+----------------------+--------------------------+
 | k       | ЧТО ИЗМЕРЯЕТ   | ФИЗИЧЕСКИЙ ПРИМЕР    | МАТЕМАТИЧЕСКИ            |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 0-форма | точку          | Температура T(x,y,z) | Просто функция f: M → ℝ  |
 |         | (скаляр в ней) | Давление p(x,y,z)    |                          |
 |         |                | Концентрация c       |                          |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 1-форма | кривую         | Работа силы ∫F·dr    | ω = Fₓdx + Fᵧdy + F_zdz  |
 |         | (интеграл      | Циркуляция           | Действует на касательный |
 |         | вдоль пути)    | Напряжение ∫E·dl     | вектор к кривой          |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 2-форма | поверхность    | Поток ∬F·dS          | ω = Fₓdy∧dz + Fᵧdz∧dx    |
 |         | (интеграл      | Магнитный поток Φ    | + F_zdx∧dy               |
 |         | по площадке)   | Расход жидкости Q    | Действует на пару        |
 |         |                |                      | касательных векторов     |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 3-форма | объём          | Масса ∭ρ dV          | ω = ρ dx∧dy∧dz           |
 |         | (интеграл      | Заряд Q = ∭ρ dV      | В 3D это максимальная    |
 |         | по области)    | Энергия в объёме     | размерность формы        |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+

 Мнемоника: k-форма "ест" k векторов и выдаёт число.

   0-форма: f()           — ничего не ест, сразу число
   1-форма: ω(v)          — съедает 1 вектор
   2-форма: σ(u,v)        — съедает 2 вектора
   3-форма: μ(u,v,w)      — съедает 3 вектора


 Визуализация: как "выглядит" k-форма


 0-форма (функция): Скалярное поле — цвет/высота в каждой точке

       высокое
          ↑   ████
          | ██████████
          |████████████████
       низкое

   Температурная карта: каждой точке — число.

-------------------------------------------------------------------------------

 1-форма: "Стопки плоскостей" — линии уровня с направлением

       | | | | | |
       | | | | | |   ← пересечение с вектором = "сколько линий прошёл"
       | | |→| | |
       | | | | | |

   1-форма dx "считает", сколько раз вектор пересёк линии x = const.
   Плотнее линии = больше значение формы.

-------------------------------------------------------------------------------

 2-форма: "Трубочки" — измеряют поток через площадку

       | | | | |
       | | | | |   ← площадка, перпендикулярная трубкам = макс. значение
       | +===+ |      площадка вдоль трубок = нулевое значение
       | |   | |
       | +===+ |
       | | | | |

   2-форма dx∧dy "считает", сколько трубок проходит через площадку.
   Ориентация площадки важна (знак).

-------------------------------------------------------------------------------

 3-форма: "Плотность точек" — сколько в объёме

       +---------+
       | ● ● ● ● |
       | ● ● ● ● |   ← интеграл по объёму = полное количество
       | ● ● ● ● |
       +---------+

   3-форма ρ dx∧dy∧dz = плотность. Интеграл = масса/заряд/энергия.


 Внешняя производная d — переход между уровнями


 Оператор d повышает степень формы на 1:

   0-форма  --d--▶  1-форма  --d--▶  2-форма  --d--▶  3-форма  --d--▶  0
   функция         градиент          ротор           дивергенция
      f               df              dω               dσ

 Физический смысл:

 +----------+---------------------------------------------+
 | ПЕРЕХОД  | ЧТО ОЗНАЧАЕТ ФИЗИЧЕСКИ                      |
 +----------+---------------------------------------------+
 | df (0→1) | Как меняется f вдоль пути = градиент        |
 |          | df(v) = ∇f · v = производная по направлению |
 +----------+---------------------------------------------+
 | dω (1→2) | "Закрученность" поля = ротор                |
 |          | Ненулевой dω = поле имеет вихри             |
 +----------+---------------------------------------------+
 | dσ (2→3) | "Источники" поля = дивергенция              |
 |          | Ненулевой dσ = есть истоки/стоки            |
 +----------+---------------------------------------------+

 Магическое свойство: d ∘ d = 0

   Применяя d дважды, получаем 0. Это глубокий факт:
     • rot(grad f) = 0  — градиент не имеет вихрей
     • div(rot F) = 0   — вихрь не имеет источников
     • ∂²M = ∅          — граница границы пуста


-------------------------------------------------------------------------------
Дифференциал как 1-форма
-------------------------------------------------------------------------------

 Переосмысление дифференциала


 В анализе: df = f'(x)dx — "бесконечно малое приращение"

 Новый взгляд: df — это линейная функция на касательных векторах.

   df: TₚM → ℝ
   df(v) = "производная f в направлении v" = ∇f · v

 Пример: f(x,y) = x² + y², точка p = (1, 2)

   df = 2x dx + 2y dy
   В точке p: df = 2dx + 4dy

   Вектор v = (3, 1) в точке p:
   df(v) = 2·3 + 4·1 = 10

   Это производная f в направлении v: ∇f·v = (2,4)·(3,1) = 10 ✓

 Вывод: dx, dy — это не "малые величины", а базисные 1-формы.

-------------------------------------------------------------------------------
 Определение: 1-форма
-------------------------------------------------------------------------------

 1-форма на многообразии M — это гладкое отображение

   ω: TM → ℝ

 которое линейно на каждом касательном пространстве TₚM.

 В координатах:
   ω = ω₁dx¹ + ω₂dx² + ... + ωₙdxⁿ = ωᵢdxⁱ

 где ωᵢ = ωᵢ(x¹,...,xⁿ) — гладкие функции (компоненты формы).

 Действие на вектор:
   ω(v) = ωᵢvⁱ = ω₁v¹ + ω₂v² + ... + ωₙvⁿ


 1-форма = ковектор = элемент T*ₚM


 Связь с предыдущими разделами:

   • (Лин. алгебра): ковектор ∈ V* — линейная функция на V
   • (Тензоры): 1-форма — тензор типа (0,1)
   • (Двойственность): 1-форма двойственна вектору

 В каждой точке p ∈ M:
   ωₚ ∈ T*ₚM  (кокасательное пространство)

 1-форма на M = гладкое семейство ковекторов {ωₚ}ₚ∈M
              = сечение кокасательного расслоения T*M


 Df ≠ ∇f : железный аргумент через размерности


 Пусть f = температура в градусах, x = координата в метрах.

 +-------------------+-------------+----------------------+
 | ОБЪЕКТ            | РАЗМЕРНОСТЬ | ТИП                  |
 +-------------------+-------------+----------------------+
 | f                 | [°C]        | Скаляр (функция)     |
 +-------------------+-------------+----------------------+
 | df                | [°C]        | 1-форма (ковектор)   |
 | (дифференциал)    |             |                      |
 +-------------------+-------------+----------------------+
 | ∂f/∂x             | [°C/м]      | Компонента градиента |
 | (частная произв.) |             |                      |
 +-------------------+-------------+----------------------+
 | ∇f                | [°C/м]      | Вектор (с метрикой) |
 | (градиент)        |             |                      |
 +-------------------+-------------+----------------------+

 Видно: df и ∇f имеют разные размерности.

 df: действует на вектор смещения [м], даёт изменение температуры [°C].
 ∇f: сам имеет размерность [°C/м], указывает направление роста.

 Связь через метрику: (∇f)ⁱ = gⁱʲ(∂f/∂xʲ)
   В декартовых: gⁱʲ = δⁱʲ, поэтому ∇f "выглядит как" (∂f/∂x, ∂f/∂y).
   В криволинейных: метрика нетривиальна, и путать их нельзя.


 Мост: dx в матанализе vs dx в формах


 Инженер привык к dx как "бесконечно малому приращению" из интеграла Римана:
   ∫f(x)dx = lim Σf(xᵢ)Δxᵢ

 Здесь мы говорим: dx — это линейный функционал.
 Как это связано?

 +----------------------+-----------------------------------------+
 | КОНТЕКСТ             | Что такое dx                            |
 +----------------------+-----------------------------------------+
 | Матанализ (интуиция) | "Бесконечно малый кусочек" оси x        |
 |                      | Δx → 0 в пределе                        |
 +----------------------+-----------------------------------------+
 | Диф. формы (точно)   | Линейная функция dx: TₚM → ℝ            |
 |                      | dx(v) = v¹ (проекция на ось x)          |
 +----------------------+-----------------------------------------+
 | Интегрирование форм  | ∫_γ ω = lim Σ ω(Δγᵢ)                    |
 |                      | Форма действует на касательные к кривой |
 +----------------------+-----------------------------------------+

 Ключ к пониманию:

   В интеграле ∫f(x)dx "скрыта" 1-форма f(x)dx, которая интегрируется
   вдоль кривой (отрезка). Старая запись — упрощение, скрывающее
   что интегрируется линейная функция на касательных векторах.

   Когда пишем ∫f(x)dx, мы на самом деле спариваем форму f(x)dx
   с касательным вектором к кривой интегрирования. Это не "сумма
   бесконечно малых", а предел сумм значений формы на малых векторах.

   ∫ₐᵇ f(x)dx   (матанализ)   =   ∫_[a,b] f·dx   (формы)

   Левая запись — это частный случай правой для кривой в ℝ¹.

 Практический вывод:
   • В 1D: разницы почти нет, можно использовать привычную запись
   • В nD: форма dx∧dy — площадь, dV = dx∧dy∧dz — объём
   • На многообразиях: без форм нельзя корректно определить интеграл


-------------------------------------------------------------------------------
Внешнее произведение — ключевая операция
-------------------------------------------------------------------------------

 Определение: внешнее (клиновое) произведение


 Для 1-форм α и β их внешнее произведение α ∧ β — это 2-форма:

   (α ∧ β)(u, v) = α(u)β(v) − α(v)β(u)

-------------------------------------------------------------------------------
 Почему именно такая формула?
-------------------------------------------------------------------------------

 Представим, что α и β — это "измерительные приборы" для компонент вектора:
   • α(u) = "сколько вектора u в направлении α"
   • β(v) = "сколько вектора v в направлении β"

 Произведение α(u)β(v) — это "площадь прямоугольника" со сторонами α(u), β(v)
 Но прямоугольник — не правильная мера площади параллелограмма.

 Чтобы получить ориентированную площадь параллелограмма на u и v:
   • Берём α(u)β(v) — один порядок измерений
   • Вычитаем α(v)β(u) — другой порядок
   • Получаем определитель 2×2 = ориентированная площадь.

 Формула = определитель:

   (α ∧ β)(u, v) = det|α(u)  α(v)|
                      |β(u)  β(v)|

 Свойства:
   • Билинейность: (aα + bβ) ∧ γ = a(α∧γ) + b(β∧γ)
   • Антисимметричность: α ∧ β = −β ∧ α
   • Следствие: α ∧ α = 0
   • Ассоциативность: (α ∧ β) ∧ γ = α ∧ (β ∧ γ)


 Пример: dx ∧ dy


 Пусть u = (u¹, u²), v = (v¹, v²) — векторы в ℝ².

   (dx ∧ dy)(u, v) = dx(u)·dy(v) − dx(v)·dy(u)
                   = u¹v² − v¹u²
                   = det|u¹ v¹|
                        |u² v²|

 dx ∧ dy вычисляет площадь параллелограмма, натянутого на u и v.

 Знак = ориентация (положительная или отрицательная)

-------------------------------------------------------------------------------
 k-формы
-------------------------------------------------------------------------------

 k-форма — это антисимметричный тензор типа (0, k).

 В координатах на ℝⁿ:

   ω = Σ ω_{i₁...iₖ} dx^{i₁} ∧ ... ∧ dx^{iₖ}
       i₁<...<iₖ

 Размерность пространства k-форм на ℝⁿ:

   dim Ωᵏ(ℝⁿ) = C(n,k) = n!/(k!(n-k)!)

 Таблица для n = 3:

   +-------+------------------------+-----+
   | k     | БАЗИС                  | dim |
   +-------+------------------------+-----+
   | 0     | 1 (функции)            | 1   |
   | 1     | dx, dy, dz             | 3   |
   | 2     | dy∧dz, dz∧dx, dx∧dy    | 3   |
   | 3     | dx∧dy∧dz               | 1   |
   | >3 | 0 (нет ненулевых форм) | 0   |
   +-------+------------------------+-----+

 Заметьте: dim Ωᵏ = dim Ωⁿ⁻ᵏ — симметрия. (связана с ∗ Ходжа)


 Конкретный пример: газодинамика — три типа интегралов


 В газодинамике постоянно встречаются три типа "бесконечно малых":

   • dx, dl — элемент длины вдоль потока (1-форма)
   • dω, dA, dS — элемент площади поперечного сечения (2-форма)
   • dV — элемент объёма (3-форма)

 Это не просто "малые величины" — это объекты разной природы.

-------------------------------------------------------------------------------
 Пример 1: работа силы давления (1-форма, интеграл по линии)
-------------------------------------------------------------------------------

   Поршень движется в цилиндре. Работа = ∫ F·dl = ∫ p·A·dl

   Здесь dl — элемент пути (1-форма). Интегрируем вдоль траектории.
   Результат: скаляр (число джоулей).

-------------------------------------------------------------------------------
 Пример 2: массовый расход через сечение (2-форма, интеграл по поверхности)
-------------------------------------------------------------------------------

   Газ течёт через трубу. Расход = ∬ ρv·dA = ∬ ρvₙ dω

   Здесь dω (или dA) — элемент площади (2-форма).
   Интегрируем по поперечному сечению трубы.
   Результат: кг/с (массовый расход).

   Важно: dω = dy∧dz — это не число, а 2-форма.
   Она "съедает" два вектора и выдаёт ориентированную площадь.

-------------------------------------------------------------------------------
 Пример 3: масса газа в объёме (3-форма, интеграл по объёму)
-------------------------------------------------------------------------------

   Масса газа в резервуаре: m = ∭ ρ dV

   Здесь dV = dx∧dy∧dz — элемент объёма (3-форма).
   Интегрируем по всему резервуару.
   Результат: кг (масса).

-------------------------------------------------------------------------------
 Теорема Стокса в газодинамике: уравнение неразрывности
-------------------------------------------------------------------------------

   Интегральная форма: ∂/∂t ∭_V ρ dV + ∬_S ρv·dA = 0

   "Изменение массы в объёме = поток массы через границу"

   Переход к дифференциальной форме (через теорему Гаусса-Остроградского):

   ∂ρ/∂t + ∇·(ρv) = 0

   Или на языке форм: ∂(ρ·dV)/∂t + d(ρv ⌟ dV) = 0
   где ⌟ — внутреннее произведение (свёртка вектора с n-формой объёма).
   Эквивалентно выражается через кодифференциал δ = ±∗d∗:
   ∂ρ/∂t + δ(ρv) = 0 с соответствующим знаком.


 Вывод: Когда видишь интеграл, спроси себя:
   • По чему интегрируем? (линия / поверхность / объём)
   • Какая форма под интегралом? (1-форма / 2-форма / 3-форма)

 dx, dA, dV — это не "просто малые величины", а объекты разных типов.


-------------------------------------------------------------------------------
Внешняя производная d
-------------------------------------------------------------------------------

 Определение: внешняя производная


 Внешняя производная d: Ωᵏ → Ωᵏ⁺¹ определяется:

 Для 0-формы (функции) f:
   df = (∂f/∂x¹)dx¹ + ... + (∂f/∂xⁿ)dxⁿ = (∂f/∂xⁱ)dxⁱ

 Для k-формы ω = ω_{i₁...iₖ} dx^{i₁} ∧ ... ∧ dx^{iₖ}:
   dω = dω_{i₁...iₖ} ∧ dx^{i₁} ∧ ... ∧ dx^{iₖ}

 Свойства:
   • d(α + β) = dα + dβ                 (линейность)
   • d(α ∧ β) = dα ∧ β + (−1)ᵏα ∧ dβ   (правило Лейбница)
   • d(dω) = 0                          (ключевое)


 Примеры внешней производной


 Пример 1: d от функции f(x,y,z)

     df = (∂f/∂x)dx + (∂f/∂y)dy + (∂f/∂z)dz

     Это дифференциал f — ковектор (1-форма).
     Не путать с градиентом ∇f, который вектор.
     (Компоненты совпадают численно только в ортонормированном базисе)

 Пример 2: d от 1-формы ω = P dx + Q dy + R dz

   dω = dP ∧ dx + dQ ∧ dy + dR ∧ dz

      = (∂P/∂y dy + ∂P/∂z dz) ∧ dx + ...

      = (∂R/∂y − ∂Q/∂z) dy∧dz + (∂P/∂z − ∂R/∂x) dz∧dx
        + (∂Q/∂x − ∂P/∂y) dx∧dy

   Это ротор rot(P,Q,R), записанный как 2-форма.

 Пример 3: d от 2-формы η = A dy∧dz + B dz∧dx + C dx∧dy

   dη = (∂A/∂x + ∂B/∂y + ∂C/∂z) dx∧dy∧dz

   Это дивергенция div(A,B,C), записанная как 3-форма.


 Объединяющая таблица: векторный анализ как формы
+------------------+------------------+---------------------------+
| КЛАССИЧЕСКОЕ     | ФОРМЫ            | СВЯЗЬ                     |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| f (скаляр)       | f (0-форма)      | тождественно              |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| ∇f (градиент)    | df (1-форма)     | компоненты совпадают      |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| F (вектор. поле) | ω = Fᵢdxⁱ (1-ф.) | через метрику: ωᵢ = gᵢⱼFʲ |
|                  | или              |                           |
|                  | η = ∗ω (2-форма) | через ∗ Ходжа             |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| rot F            | dω (2-форма)     | d(1-форма) = 2-форма      |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| div F            | d∗ω (3-форма)    | d(2-форма) = 3-форма      |
|                  |                  | или ∗d∗ω (функция)        |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| rot(∇f) = 0      | d(df) = 0        | d² = 0                    |
| div(rot F) = 0   | d(dω) = 0        | d² = 0                    |
|                  |                  |                           |
+------------------+------------------+---------------------------+

 A.t.2 свойство d² = 0 — реализации в разных разделах
+------------------+---------------------+-----------------------------+
| РАЗДЕЛ           | ОПЕРАТОР            | ТОЖДЕСТВО                   |
+------------------+---------------------+-----------------------------+
| Векторный анализ | ∇, rot, div         | rot(grad f)=0, div(rot F)=0 |
| Дифф. формы      | d: Ωᵏ → Ωᵏ⁺¹        | d(dω) = 0                   |
| Гомологии        | ∂: Cₖ → Cₖ₋₁         | ∂(∂c) = 0                   |
| Когомологии      | δ: Cᵏ → Cᵏ⁺¹        | δ(δf) = 0                   |
| Компл. анализ    | ∂̄ (Дольбо)          | ∂̄² = 0                      |
| Гомол. алгебра   | d (цепной комплекс) | dₖ₊₁ ∘ dₖ = 0                |
+------------------+---------------------+-----------------------------+

 Следствие: Hᵏ = ker(d)/Im(d) — когомологии
 • Замкнутые формы ker(d) / Точные формы Im(d) = топологический инвариант

-------------------------------------------------------------------------------
Теорема Стокса — одна теорема вместо трёх
-------------------------------------------------------------------------------

 Обобщённая теорема Стокса

                     +--------------------------+
                     |                          |
                     | ∫   dω  =  ∫   ω         |
                     | M         ∂M             |
                     |                          |
                     | интеграл      интеграл   |
                     | по области    по границе |
                     |                          |
                     +--------------------------+

 Пусть M — ориентированное многообразие с границей ∂M,
      ω — дифференциальная (n−1)-форма на M.

 Тогда интеграл производной по области = интеграл формы по границе.


 Частные случаи — все классические теоремы = одна
+----------+----------------------+-----------------------------------+
| dim M    | НАЗВАНИЕ             | ФОРМУЛА                           |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 1        | Ньютон-Лейбниц       | ∫ₐᵇ df = f(b) − f(a)              |
| отрезок  | (осн. теор. анализа) |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 2        | Грин                 | ∮_{∂D} Pdx+Qdy = ∬(∂Q/∂x−∂P/∂y)dA |
| область  |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 2        | Классич. Стокс       | ∮_{∂S} F·dr = ∬_S rot F·dS        |
| поверхн. |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 3        | Гаусс-Остроградский  | ∬_{∂V} F·dS = ∭_V div F dV        |
| тело     |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+

 Все это — одна теорема: ∫_M dω = ∫_{∂M} ω


   ∬_{∂V} F·dS = ∭_V div F dV

   Это теорема Гаусса-Остроградского.


 Смысл: граница границы пуста


 Из d² = 0 и теоремы Стокса следует:

   ∫_{∂∂M} ω = ∫_{∂M} dω = ∫_M d²ω = 0

 Значит ∂∂M = ∅ (граница границы пуста)!

 Геометрическая интуиция:

   dim 1:    ●━━━━━━━━━━●          Отрезок
             ↓          ↓
             ●          ●          Граница = 2 точки
             ↓          ↓
             ∅          ∅          Граница точки = ∅

   dim 2:    +----------+          Диск
             | ╭------╮ |
             | |      | | ---▶     ╭------╮  Граница = окружность
             | ╰------╯ |          ╰------╯
             +----------+                ↓
                                        ∅   Граница окружности = ∅

   dim 3:       +----+
               /    /|              Куб
              +----+ |                   ↓
              |    |/              6 граней (поверхность)
              +----+                     ↓
                                        ∅   Граница замкнутой поверхности = ∅

 Формула: ∂² = 0  ⟷  d² = 0  (двойственные утверждения)


 Согласование ориентации — источник 50% ошибок со знаком


 Теорема Стокса ∫_M dω = ∫_{∂M} ω работает только при согласованной
 ориентации M и её границы ∂M. Без этого — ошибка в знаке.

-------------------------------------------------------------------------------
 Правило: как ориентация индуцируется на границу
-------------------------------------------------------------------------------

 dim 1 → dim 0 (отрезок → точки):

   Отрезок [a, b] ориентирован "слева направо".
   Граница: точка a с "−", точка b с "+".

        −●━━━━━━━━━━━━━━━━━━●+
         a                   b

   Поэтому: ∫_a^b df = f(b) − f(a)  (не f(a) − f(b).)

-------------------------------------------------------------------------------

 Dim 2 → dim 1 (поверхность → контур): "правило буравчика"

   Поверхность ориентирована нормалью n (выбрали "верх").
   Граница обходится так, чтобы n смотрела "влево" от движения.

          n ↑
            |    +------------+
            |    |            |
                 |    ---→    |  ← направление обхода ∂M
                 |            |
                 +------------+

   Мнемоника: Стоишь на поверхности, голова по нормали → граница слева.

-------------------------------------------------------------------------------

 Dim 3 → dim 2 (объём → поверхность): "внешняя нормаль"

   Объём V ориентирован стандартно (dx∧dy∧dz).
   Граница ∂V ориентирована внешней нормалью.

              +---------+
             /|        /|
            / |  →n   / |   ← нормаль наружу
           +---------+  |
           |  |      |  |
           |  +------|--+
           | /       | /
           |/        |/
           +---------+

   Теорема Гаусса: ∬_{∂V} F·dS = ∭_V div F dV
   dS = n dS, где n — внешняя нормаль.

-------------------------------------------------------------------------------

 Практический совет:

   Если получился "неправильный" знак — проверь:
   1. Куда направлена нормаль к поверхности?
   2. В какую сторону обходится контур?
   3. Согласованы ли они по "правилу буравчика"?


-------------------------------------------------------------------------------
Уравнения Максвелла в языке форм
-------------------------------------------------------------------------------

 Электромагнитный тензор как 2-форма


 Электрическое поле E и магнитное поле B объединяются в 2-форму F:

   F = Eₓ dx∧dt + Eᵧ dy∧dt + E_z dz∧dt
     + Bₓ dy∧dz + Bᵧ dz∧dx + B_z dx∧dy

 В матричной форме (тензор Fμν):

        ⎛  0   -Eₓ  -Eᵧ  -E_z ⎞
   F =  ⎜ Eₓ    0    B_z  -Bᵧ ⎟
        ⎜ Eᵧ  -B_z   0    Bₓ  ⎟
        ⎝ E_z  Bᵧ   -Bₓ   0   ⎠

-------------------------------------------------------------------------------
 Уравнения Максвелла
-------------------------------------------------------------------------------

 Классическая форма (4 уравнения):

   div E = ρ/ε₀           rot E = −∂B/∂t
   div B = 0              rot B = μ₀J + μ₀ε₀ ∂E/∂t


 В языке форм (2 уравнения):

   +-------------------------------------------------------------+
   |                                                             |
   | dF = 0         (однородные: div B = 0, rot E = −∂B/∂t)      |
   |                                                             |
   | d∗F = J        (неоднородные: div E = ρ, rot B = J + ∂E/∂t) |
   |                                                             |
   +-------------------------------------------------------------+

 где:
   F — электромагнитная 2-форма
   ∗F — её Ходжево двойственная 2-форма
   J — 3-форма тока (ток + плотность заряда)

 Красота:
   • dF = 0 автоматически следует из F = dA (потенциал)
   • d(d∗F) = 0 даёт сохранение заряда: dJ = 0
   • Лоренц-инвариантность очевидна (нет разделения E и B)


-------------------------------------------------------------------------------
Когомологии де Рама — топология через формы
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Замкнутые и точные формы
-------------------------------------------------------------------------------

 Форма ω называется:

   Замкнутой:  dω = 0
   Точной:     ω = dη для некоторой η

 Из d² = 0 следует: точная ⇒ замкнутая

   d(dη) = 0 ✓

 Вопрос: Верно ли обратное? Всякая ли замкнутая форма точна?

 Ответ: не всегда. Это зависит от топологии многообразия.

-------------------------------------------------------------------------------
 Когомологии де Рама
-------------------------------------------------------------------------------

   H^k_{dR}(M) = {замкнутые k-формы} / {точные k-формы}

              = Ker(d: Ωᵏ → Ωᵏ⁺¹) / Im(d: Ωᵏ⁻¹ → Ωᵏ)

 Размерность H^k(M) называется k-м числом Бетти: bₖ = dim H^k(M)

 Теорема де Рама:
   H^k_{dR}(M) ≅ H^k(M; ℝ)  (когомологии де Рама = сингулярные когомологии)

 Это мост между анализом (формы) и топологией (дырки)!

-------------------------------------------------------------------------------
 Примеры
-------------------------------------------------------------------------------

 ℝⁿ:  H⁰ = ℝ, Hᵏ = 0 для k > 0
      Всякая замкнутая форма точна (пространство "тривиальное")

 S¹:  H⁰ = ℝ, H¹ = ℝ
      Форма dθ замкнута, но не точна.
      ∮ dθ = 2π ≠ 0 (интеграл по циклу ненулевой)
      Это "чувствует" дырку в окружности

 T² (тор): H⁰ = ℝ, H¹ = ℝ², H² = ℝ
      Две независимые 1-формы (два независимых цикла)

 S²:  H⁰ = ℝ, H¹ = 0, H² = ℝ
      Нет 1-мерных дырок, есть 2-мерная "оболочка"

-------------------------------------------------------------------------------
 Гомологии vs когомологии — интуиция двойственности
-------------------------------------------------------------------------------

 Обе теории "считают дырки", но с разных сторон:

 Гомологии Hₖ:
   • Объекты: циклы (k-мерные "контуры" без границы)
   • Вопрос: "Какие циклы не являются границами?"
   • Геометрические объекты: кривые, поверхности, ...

   Пример: На торе есть два цикла (вокруг дырки и сквозь дырку),
           которые нельзя "заполнить" поверхностью внутри тора.
           ⇒ H₁(T²) = ℤ × ℤ

 Когомологии Hᵏ:
   • Объекты: формы (функции на циклах)
   • Вопрос: "Какие формы замкнуты, но не точны?"
   • Функциональные объекты: измеряют циклы

   Пример: Форма dθ на окружности замкнута, но не точна.
           Она "измеряет" сколько раз цикл обходит дырку.
           ⇒ H¹(S¹) = ℝ

 Аналогия:
 +-------------------------------------------------------------------+
 |                                                                   |
 | гомологии — это "дырки" (геометрические объекты)                  |
 | когомологии — это "измерители дырок" (функции на дырках)          |
 |                                                                   |
 | Как вектор и ковектор: одно — объект, другое — функция на объекте |
 |                                                                   |
 +-------------------------------------------------------------------+

 Связь (двойственность):

   Hᵏ(M; ℝ) ≅ Hom(Hₖ(M), ℝ)  (когомологии = функционалы на гомологиях)

   Спаривание: ⟨[ω], [c]⟩ = ∫_c ω
               (интеграл формы по циклу)

 Почему две теории:
   • Гомологии проще для геометрической интуиции
   • Когомологии имеют умножение (кольцевая структура)
   • Когомологии де Рама связаны с анализом (дифференциальные формы)


-------------------------------------------------------------------------------
Резюме и связи
-------------------------------------------------------------------------------

 Главные идеи раздела


 1. Дифференциальные формы = "объекты для интегрирования"
    k-форма интегрируется по k-мерным поверхностям

 2. Внешнее произведение ∧ = антисимметризация
    α ∧ β = −β ∧ α, α ∧ α = 0

 3. Внешняя производная d обобщает grad, rot, div
    d² = 0 — ключевое свойство

 4. Теорема Стокса объединяет Н-Л, Грин, Стокс, Гаусс
    ∫_M dω = ∫_{∂M} ω

 5. Когомологии де Рама связывают анализ и топологию
    Замкнутые/точные формы "чувствуют" дырки в пространстве


 Граф связей


   (Лин.алг)        (Тензоры)        (Многообразия)
        |               |                   |
        |   ковекторы   | антисимм.тензоры  |  TₚM, T*ₚM
        +---------------+-------------------+
                        |
                        ▼
                   ▶ (Формы) ◀
                        |
        +---------------+---------------+
        ▼               ▼               ▼
   (Топология)       Физика          Анализ
   когомологии      Максвелл        интегралы
                    ОТО теор. Стокса


До сих пор мы строили структуры на непрерывных пространствах: топология,
линейность, гладкость, формы. Но математика работает и с дискретными
объектами — конечными множествами, графами, логическими высказываниями.

Следующие два раздела — о дискретных структурах. Они не менее
фундаментальны: порядок лежит в основе логики и теории множеств,
графы описывают сети и алгоритмы.

-------------------------------------------------------------------------------
Порядок и решётки — три лица одной структуры
-------------------------------------------------------------------------------

Ключевая таблица «Логика = Множества = Порядок»:

 Частичный порядок — фундамент


 Отношение ≤ называется частичным порядком, если:

   • a ≤ a                    (рефлексивность)
   • a ≤ b и b ≤ a ⇒ a = b   (антисимметричность)
   • a ≤ b и b ≤ c ⇒ a ≤ c   (транзитивность)

 "Частичный" = не все элементы сравнимы
 Пример: множества {1} и {2} несравнимы по ⊆


 Порядок везде — Примеры
+-------------------------+-------------------------+-------------------------+
| МНОЖЕСТВО               | ПОРЯДОК ≤               | ГДЕ ВСТРЕЧАЕТСЯ         |
+-------------------------+-------------------------+-------------------------+
| Числа ℝ                 | Обычный ≤               | Анализ                  |
| Подмножества 2^X        | Включение ⊆             | Логика, топология       |
| Натуральные ℕ           | Делимость a|b           | Теория чисел            |
| Слова                   | Префикс                 | Информатика             |
| Типы данных             | Наследование            | ООП                     |
| Открытые множества      | Включение ⊆             | Топология               |
| Подпространства         | Включение ⊆             | Линейная алгебра        |
| Подгруппы               | Включение ⊆             | Теория групп            |
+-------------------------+-------------------------+-------------------------+

 Решётка — порядок с операциями


 Решётка = частичный порядок, где любые два элемента имеют:
   a ∨ b = sup{a, b}  (наименьшая верхняя грань)
   a ∧ b = inf{a, b}  (наибольшая нижняя грань)

 Пример: Подмножества {a,b,c}         Пример: Делители 12

         {a,b,c}                                 12
        /   |   \                              / |  \
    {a,b} {a,c} {b,c}                        4   6   ← НОК
       \ X     X /                            \ / \ /
       {a}  {b}  {c}                           2   3
          \ | /                                 \ /
            ∅                                    1   ← НОД

   {a}∨{b} = {a,b}                           2∨3 = НОК(2,3) = 6
   {a}∧{b} = ∅                               2∧3 = НОД(2,3) = 1


 Булева алгебра = решётка с дополнением


 Дополнительное требование: для каждого a существует ¬a такой, что
   a ∨ ¬a = 1   и   a ∧ ¬a = 0

 Делители 12 — решётка, но не булева. (нет дополнения для 2, 3, 4, 6)
 Подмножества — булева алгебра (дополнение всегда есть)

-------------------------------------------------------------------------------
 Связь с топологией
-------------------------------------------------------------------------------

 Открытые множества топологии образуют решётку (но не булеву алгебру)

   • U₁ ∨ U₂ = U₁ ∪ U₂           (объединение открытых — открыто)
   • U₁ ∧ U₂ = U₁ ∩ U₂           (пересечение открытых — открыто)
   • НО: дополнение открытого — замкнуто, не открыто.

 Это приводит к интуиционистской логике (без закона исключённого третьего)

   +----------------+------------------+-----------------------------+
   | КЛАССИЧЕСКАЯ   | ИНТУИЦИОНИСТСКАЯ | ПРИМЕР                      |
   +----------------+------------------+-----------------------------+
   | P ∨ ¬P = ⊤     | Не всегда.       | "x рационально или нет" —   |
   | (всегда верно) |                  | нужно конструктивно указать |
   +----------------+------------------+-----------------------------+

-------------------------------------------------------------------------------
 Прикладной пример: пуск технологической линии
-------------------------------------------------------------------------------

 Задача: Котельная. Нужно запустить оборудование в правильном порядке.
 Некоторые операции можно делать параллельно, некоторые — строго после.

 Частичный порядок операций:

   Открыть подачу газа (a)
          |
          +-------------------+
          |                   |
          ▼                   ▼
   Включить дымосос (b)    Включить вентилятор (c)
          |                   |
          +-------+-----------+
                  |
                  ▼
   Розжиг горелки (d)     ← только после b и c.
          |
          ▼
   Выход на режим (e)

 Это частичный порядок:
   • a ≤ b, a ≤ c      (газ — до дымососа и вентилятора)
   • b ≤ d, c ≤ d      (дымосос и вентилятор — до розжига)
   • d ≤ e             (розжиг — до выхода на режим)
   • но: b и c несравнимы (можно в любом порядке)

 Операции на решётке:

   • b ∧ c = a      (НОГ — наибольшая операция, которая до обеих)
   • b ∨ c = d      (НОВ — наименьшая операция, которая после обеих)

 Практический смысл:
   b ∨ c = d означает: "d — первая операция, которую можно делать
   только после завершения и b, и c"

 Применение: Диаграмма Ганта = визуализация частичного порядка во времени.
 Критический путь = самая длинная цепь в частичном порядке.

-------------------------------------------------------------------------------
 Место в общей картине
-------------------------------------------------------------------------------

 Граф = визуализация отношения

 Отношение R ⊆ A×A — абстрактное понятие
 Граф — его картинка: вершины = элементы, ребро = пара в отношении

 Поскольку отношения — фундамент математики, графы везде.


 Один объект — много представлений
+------------------------+-------------------+--------------------+
| ОТНОШЕНИЕ              | ГРАФ              | МАТРИЦА            |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| R ⊆ V × V              | G = (V, E)        | A: Aᵢⱼ ∈ {0,1}     |
| (множество пар)        | (картинка)        | (таблица чисел)    |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| (a,b) ∈ R              | Ребро a--b        | Aₐᵦ = 1            |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| R симметрично          | Неориентированный | A = Aᵀ             |
| (a,b)∈R ⇒ (b,a)∈R      |                   |                    |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| Путь из a в b          | Цепочка рёбер     | (Aⁿ)ₐᵦ > 0      |
| за n шагов             |                   | (число путей)     |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| Транзитивное замыкание | "Достижимость"    | (I+A)ⁿ или (I−A)⁻¹ |
|                        |                   |                    |
+------------------------+-------------------+--------------------+

 Графы везде — примеры
+-------------------------+-------------+------------------------+
| ОБЛАСТЬ                 | ВЕРШИНЫ     | РЁБРА                  |
+-------------------------+-------------+------------------------+
| Соцсети                 | Люди        | "Друзья"               |
| Интернет                | Страницы    | Ссылки                 |
| Химия                   | Атомы       | Связи                  |
| Карта города            | Перекрёстки | Улицы                  |
| Электросхема            | Узлы        | Проводники             |
| Конечный автомат        | Состояния   | Переходы               |
| Порядок задач           | Задачи      | Зависимости            |
| Группа (граф Кэли)      | Элементы    | Умножение на генератор |
| Симпл. комплекс (1-ск.) | Вершины     | 1-симплексы            |
+-------------------------+-------------+------------------------+

-------------------------------------------------------------------------------
 Связь с линейной алгеброй
-------------------------------------------------------------------------------

 Матрица смежности A превращает теорию графов в линейную алгебру.

   • (Aⁿ)ᵢⱼ = число путей длины n из i в j
   • Собственные значения A — спектр графа (инвариант)
   • λ₁ (наибольшее) связано со связностью
   • Число компонент связности = кратность λ = 0 у лапласиана L = D − A

 PageRank Google = главный собственный вектор матрицы переходов.

-------------------------------------------------------------------------------
 Связь с топологией
-------------------------------------------------------------------------------

 Эйлерова характеристика:  χ = V − E + F

 Для плоского графа (на сфере): χ = 2
 Для графа на торе: χ = 0

 Это тот же инвариант χ, что и в гомологиях.
 Граф — простейший "симплициальный комплекс" (только 0- и 1-симплексы)

   H₀(графа) = ℤᵏ, где k = число компонент связности
   H₁(графа) = ℤᵐ, где m = число независимых циклов = E − V + k


 Типы графов
+------------------------+----------------------------------------------------+
| ТИП                    | СВОЙСТВО и ЗНАЧЕНИЕ                                |
+------------------------+----------------------------------------------------+
| Связный                | ∃ путь между любыми двумя вершинами; H₀ = ℤ        |
| Дерево                 | Связный + без циклов; |E| = |V|−1; H₁ = 0          |
| Полный Kₙ              | Все соединены; |E| = n(n−1)/2                      |
| Двудольный             | Вершины = 2 класса, рёбра между классами           |
| Планарный              | Вложим в плоскость без пересечений; χ = 2          |
| Граф Кэли группы G     | Кодирует структуру группы; V=G, рёбра=генераторы   |
+------------------------+----------------------------------------------------+

 Прикладной пример: гидравлический расчёт тепловой сети


 Задача: Тепловая сеть города. Найти расходы и потери давления.

           Источник
              ●---------------●---------------●
              |       G₁₂    / \      G₂₃     |
           Q₀ |            /   \              | Потребитель 1
              |          /       \            | q₁
              |        / G₁₄      \ G₃₄       |
              |      /             \          |
              ●---------------●---------------●
                      G₄₅            Потребитель 2
                                     q₂

 Граф сети:
   Вершины = узлы (источники, потребители, развилки)
   Рёбра = трубопроводы (с расходом G и сопротивлением S)

-------------------------------------------------------------------------------
 Первый закон Кирхгофа (сохранение массы в узлах):
-------------------------------------------------------------------------------

   В каждом узле: Σ Gвход = Σ Gвыход

   Это гомология. H₀ = 0 означает: поток может "течь" через сеть.

-------------------------------------------------------------------------------
 Второй закон Кирхгофа (сохранение давления в контурах):
-------------------------------------------------------------------------------

   В каждом замкнутом контуре: Σ Δpᵢ = 0

   Число независимых контуров = β₁ = E − V + 1 (первое число Бетти).

-------------------------------------------------------------------------------
 Матричная форма:
-------------------------------------------------------------------------------

   A · G = q        (A — матрица инцидентности "узлы × рёбра")
   B · Δp = 0       (B — матрица контуров)
   Δp = S · G²      (квадратичный закон сопротивления)

   Итого: нелинейная система, решается методом Ньютона.

 Численный пример:
   Сеть с V=5, E=6 ⇒ β₁ = 6−5+1 = 2 независимых контура
   уравнения контуров + 4 уравнения узлов = 6 уравнений для 6 расходов


 Вывод: Гидравлика сетей — это теория графов + линейная алгебра.
 Число Бетти β₁ = число независимых контуров = размерность H₁.


Порядок — это отношение "больше/меньше" без требования сравнимости всех пар.
Графы — другая дискретная структура: отношение "связан/не связан".

Графы — это дискретные пространства. На них работают аналоги непрерывных
понятий: лапласиан, диффузия, гомологии. И они повсюду: сети, алгоритмы, данные.

===============================================================================
Графы — дискретные структуры связей
===============================================================================

 Граф как дискретное пространство


 Граф — это дискретный аналог пространства, где:

   • Вершины — "точки" пространства
   • Рёбра — "соседство" (кто рядом с кем)
   • Путь — "движение" от точки к точке
   • Расстояние = число рёбер в кратчайшем пути

 Многие понятия непрерывной математики имеют дискретные аналоги:

   Непрерывное          |   Дискретное (на графе)
   ---------------------+---------------------------
   Оператор Лапласа ∇²  |   Лапласиан графа L = D − A
   Теплопроводность     |   Диффузия на графе: u' = −Lu
   Потенциальный поток  |   Электрическая цепь (законы Кирхгофа)


 Граф как структура


 Граф G = (V, E) — это:
   • V — множество вершин (узлов)
   • E ⊆ V × V — множество рёбер (связей между вершинами)

 Виды графов:
   • Ориентированный: рёбра имеют направление (a → b ≠ b → a)
   • Неориентированный: {a, b} = {b, a}
   • Взвешенный: каждому ребру присвоен вес w(e) ∈ ℝ

 Примеры:
   • Социальная сеть: вершины = люди, рёбра = знакомства
   • Трубопровод: вершины = узлы, рёбра = трубы, веса = сопротивления
   • Интернет: вершины = серверы, рёбра = каналы связи

-------------------------------------------------------------------------------
 Ключевые понятия
-------------------------------------------------------------------------------

 Путь: последовательность вершин v₀ → v₁ → ... → vₙ, где (vᵢ, vᵢ₊₁) ∈ E
 Цикл: путь, где v₀ = vₙ (замкнутый путь)
 Связный граф: между любыми двумя вершинами существует путь
 Дерево: связный граф без циклов

 +--------------------+---------------------------------------------------+
 | ИНВАРИАНТ          | ФОРМУЛА / СВОЙСТВО                                |
 +--------------------+---------------------------------------------------+
 | Число вершин       | |V| = n                                           |
 | Число рёбер        | |E| = m                                           |
 | Число компонент    | k (связные куски графа)                           |
 | Эйлерова хар-ка    | χ = n − m + k                                     |
 | Число циклов       | β₁ = m − n + k (первое число Бетти)               |
 +--------------------+---------------------------------------------------+

 Для дерева: m = n − 1 (минимум рёбер для связности), β₁ = 0

-------------------------------------------------------------------------------
 Связь с другими разделами
-------------------------------------------------------------------------------

 Топология         | Граф — 1-мерный симплициальный комплекс
                   | β₁ = rank(H₁) — топологический инвариант
 ------------------+---------------------------------------------------------
 Лин. алгебра      | Матрица смежности, лапласиан, спектр графа
 ------------------+---------------------------------------------------------
 Решётки           | Диаграмма Хассе — граф частичного порядка
 ------------------+---------------------------------------------------------
 Многообразия      | Дискретизация: сетка = граф на многообразии

-------------------------------------------------------------------------------
 Матрица смежности и лапласиан
-------------------------------------------------------------------------------

 Матрица смежности a:
   Aᵢⱼ = 1 если есть ребро (i,j), иначе 0

     1---2                   ⎛ 0 1 1 0 ⎞
     |   |         →    A =  ⎜ 1 0 0 1 ⎟
     3---4                   ⎜ 1 0 0 1 ⎟
                             ⎝ 0 1 1 0 ⎠

 Матрица степеней d:
   Dᵢᵢ = deg(i) = число рёбер из вершины i

 Лапласиан графа:
   L = D − A

 Свойства лапласиана:
   • L симметрична, положительно полуопределена
   • Собственные значения: 0 = λ₁ ≤ λ₂ ≤ ... ≤ λₙ
   • Кратность λ = 0 равна числу компонент связности
   • λ₂ (алгебраическая связность) — мера "насколько связан" граф

 Аналогия с физикой:
   Лапласиан графа — дискретный аналог оператора Лапласа ∇².
   Уравнение теплопроводности на графе: du/dt = −Lu

-------------------------------------------------------------------------------
 Почему L ≈ ∇² (детальное объяснение)
-------------------------------------------------------------------------------

 Непрерывный лапласиан на прямой:
   (∇²f)(x) = f''(x) ≈ [f(x+h) − 2f(x) + f(x−h)] / h²

 Граф как дискретизация: вершины = точки, рёбра = соседство.

 Действие лапласиана графа на функцию f: V → ℝ (значения в вершинах):

   (Lf)(i) = Σⱼ~ᵢ [f(i) − f(j)] = deg(i)·f(i) − Σⱼ~ᵢ f(j)
             ↑
        сумма по соседям j вершины i

 Это в точности дискретная версия ∇².
   • В точке: значение минус среднее соседей
   • Измеряет "отклонение от локального среднего"
   • Гармоническая функция: Lf = 0 ⟺ в каждой точке f = среднее соседей

 Уравнение теплопроводности:
   Непрерывное: ∂u/∂t = ∇²u    →    Дискретное: du/dt = −Lu
   Тепло течёт от горячих вершин к холодным соседям.

-------------------------------------------------------------------------------
 Спектральная теория графов — линейная алгебра в действии
-------------------------------------------------------------------------------

 Собственные значения и векторы лапласиана L — это "частоты" и "моды"
 колебаний сети, аналогично резонансным частотам струны или мембраны.

 Спектр лапласиана:  0 = λ₁ ≤ λ₂ ≤ ... ≤ λₙ

 +--------------------+-------------------------------------------+
 | СОБСТВ. ЗНАЧЕНИЕ   | ЧТО ОЗНАЧАЕТ                              |
 +--------------------+-------------------------------------------+
 | λ₁ = 0             | Всегда собств. вектор = (1,1,...,1)      |
 | Кратность λ = 0    | = число компонент связности графа         |
 | λ₂ (Fiedler value) | Алгебраическая связность: чем больше, тем |
 |                    | "крепче" связан граф (труднее разрезать)  |
 | λₙ                 | Максимальная "частота колебаний" сети     |
 +--------------------+-------------------------------------------+

 Вектор фидлера (Fiedler vector):
   Собственный вектор v₂, соответствующий λ₂.

   Магия: Знаки компонент v₂ делят граф на две части.
   Вершины с v₂ᵢ > 0 — одна группа, с v₂ᵢ < 0 — другая.
   Это оптимальное разбиение (минимизирует число рёбер между группами).

 Применения:
   • Спектральная кластеризация: группировка вершин по собств. векторам
   • PageRank: главный собств. вектор матрицы переходов (Google)
   • Синхронизация: связь λ₂ с устойчивостью синхронных режимов
   • Графовые нейросети (GNN): свёртка через спектр лапласиана

 Это чистая магия линейной алгебры в дискретном мире.
 Локальная структура (рёбра) → глобальное свойство (спектр).

-------------------------------------------------------------------------------
 Инженерные приложения: сетевые потоки
-------------------------------------------------------------------------------

 Задача о максимальном потоке:
   Дана сеть с источником s и стоком t.
   Рёбра имеют пропускную способность c(e).
   Найти максимальный поток из s в t.

               [3]
           ┌──────→ a ──[2]──┐
          ╱                   ↘
        s                       t         Макс. поток = 2 + 3 = 5
          ╲                   ↗               ─────────────
           └──────→ b ──[3]──┘           (узкие места: a→t даёт 2,
               [4]                                    b→t даёт 3)

   Разрез: {s} | {a, b, t}. Сумма пропускных способностей рёбер разреза:
   c(s→a) + c(s→b) = 3 + 4 = 7. Но это не минимальный разрез.
   Минимальный разрез: {s,a,b} | {t}, сумма = c(a→t) + c(b→t) = 2 + 3 = 5.

 Теорема (Форд-Фалкерсон):
   Максимальный поток = минимальный разрез

 Приложения:
   • Трубопроводные сети (максимальная пропускная способность)
   • Транспортные задачи (оптимальная логистика)
   • Электрические сети (законы Кирхгофа)

-------------------------------------------------------------------------------
 Законы Кирхгофа как теория графов
-------------------------------------------------------------------------------

 Электрическая цепь = взвешенный граф, где:
   • Вершины = узлы цепи
   • Рёбра = резисторы/проводники
   • Веса = проводимости g = 1/R

 Первый закон Кирхгофа (узловой):
   Σ Iₖ = 0  в каждом узле
   ↔ Вектор токов I ∈ ker(∂₁) — ядро граничного оператора.

 Второй закон Кирхгофа (контурный):
   Σ Uₖ = 0  по любому замкнутому контуру
   ↔ Вектор напряжений U ∈ im(∂₀*) — образ ко-граничного оператора.

 Закон Ома:  I = GU  (G — матрица проводимостей)

 Итог: Решение цепи = решение системы Lφ = I_ext
       где L — взвешенный лапласиан, φ — потенциалы узлов

 Это та же математика, что и теплопроводность, диффузия, гидравлика.

-------------------------------------------------------------------------------
 Кратчайшие пути и алгоритмы
-------------------------------------------------------------------------------

 Задача: Найти кратчайший путь между вершинами во взвешенном графе.

 +----------------------+----------------+------------------------------+
 | АЛГОРИТМ             | СЛОЖНОСТЬ      | КОГДА ПРИМЕНЯТЬ              |
 +----------------------+----------------+------------------------------+
 | BFS (поиск в ширину) | O(V + E)       | Невзвешенный граф            |
 | Дейкстра             | O(E + V log V) | Неотриц. веса, один источник |
 | Беллман-Форд         | O(VE)          | Любые веса, один источник    |
 | Флойд-Уоршелл        | O(V³)          | Все пары, любые веса         |
 +----------------------+----------------+------------------------------+

 Применения в инженерии:
   • Маршрутизация в сетях
   • Оптимальные трассы трубопроводов
   • Планирование проектов (CPM/PERT — граф работ)


===============================================================================
Комбинаторика — искусство счёта
===============================================================================

Комбинаторика отвечает на вопрос "сколько?": сколько способов выбрать,
расставить, разбить объекты. Эти формулы нужны везде: от теории вероятностей
до квантовой механики.

-------------------------------------------------------------------------------
 Комбинаторика как взгляд на пространство
-------------------------------------------------------------------------------

 Комбинаторика изучает конечные дискретные пространства.

 Если топология спрашивает "какие точки близки?", а метрика — "насколько?",
 то комбинаторика спрашивает: "сколько точек/путей/конфигураций?"

 Это нуль-мерная геометрия: структура без непрерывности, только счёт.


 Комбинаторные объекты = точки в пространствах

 +-------------------+------------------------------+--------------------+
 | ОБЪЕКТ            | ЧТО ЭТО ЗА ПРОСТРАНСТВО      | РАЗМЕР             |
 +-------------------+------------------------------+--------------------+
 | Перестановка      | Множество всех упорядоченных | n! точек           |
 | n элементов       | расстановок = группа Sₙ      |                    |
 +-------------------+------------------------------+--------------------+
 | k-подмножество    | Множество всех выборок k из  | C(n,k) точек       |
 | из n элементов    | n = грассманиан Gr(k,n)      |                    |
 +-------------------+------------------------------+--------------------+
 | Путь в графе      | Пространство путей           | Считается по графу |
 | из A в B          | (дискретное многообразие)    |                    |
 +-------------------+------------------------------+--------------------+
 | Разбиение числа n | Множество способов           | p(n) точек         |
 |                   | представить n суммой         | (число разбиений)  |
 +-------------------+------------------------------+--------------------+

-------------------------------------------------------------------------------
 Связь с другими структурами
-------------------------------------------------------------------------------

 Группы:
   Множество перестановок Sₙ — это группа.
   • Операция: композиция перестановок
   • Порядок группы |Sₙ| = n!
   • Подгруппы Sₙ — это группы симметрий конечных объектов

 Линейная алгебра:
   Биномиальный коэффициент C(n,k) = размерность пространства.
   • Множество всех k-подмножеств {1,...,n} — базис
   • dim(пространство k-форм на ℝⁿ) = C(n,k)
   • Треугольник Паскаля = размерности внешних степеней

 Вероятность:
   Комбинаторика — основа дискретной вероятности.
   • P(событие) = (благоприятные исходы) / (все исходы)
   • "Все исходы" считаются комбинаторно

 Графы:
   Число путей в графе = комбинаторика на дискретном пространстве
   • Матрица смежности Aⁿ[i,j] = число путей длины n из i в j

-------------------------------------------------------------------------------
 Два базовых принципа
-------------------------------------------------------------------------------

 Принцип сложения:
   Если задачу можно выполнить способом A или способом B (взаимоисключающими),
   и A можно сделать m способами, B — n способами, то всего m + n способов.

 Принцип умножения:
   Если задача состоит из шага A и шага B (последовательных),
   и A можно сделать m способами, B — n способами, то всего m · n способов.

 Принцип Дирихле (принцип ящиков):
   Если n+1 объект разложить по n ящикам, хотя бы в одном ящике ≥ 2 объекта.

   Применение: Среди 367 человек найдутся двое с одинаковым днём рождения.

-------------------------------------------------------------------------------
 Факториал
-------------------------------------------------------------------------------

 +----------------------------------------------------------------+
 | n! = n · (n−1) · (n−2) · ... · 2 · 1                           |
 |                                                                |
 | n! = количество способов расставить n различных объектов в ряд |
 +----------------------------------------------------------------+

 Значения:
   0! = 1 (по определению)
   1! = 1
   2! = 2
   3! = 6
   4! = 24
   5! = 120
   10! = 3 628 800
   20! ≈ 2.4 × 10¹⁸

 Формула Стирлинга (асимптотика для больших n):
   n! ≈ √(2πn) · (n/e)ⁿ

   Точнее: n! = √(2πn) · (n/e)ⁿ · (1 + O(1/n))

-------------------------------------------------------------------------------
 Перестановки, размещения, сочетания
-------------------------------------------------------------------------------

 +--------------+---------+------------+---------------------+
 |              | ПОРЯДОК | ПОВТОРЕНИЯ | ФОРМУЛА             |
 |              | ВАЖЕН?  |            |                     |
 +--------------+---------+------------+---------------------+
 | Перестановки | ДА      | НЕТ        | Pₙ = n!             |
 | (все n)      |         |            |                     |
 +--------------+---------+------------+---------------------+
 | Размещения   | ДА      | НЕТ        | Aₙᵏ = n!/(n−k)!     |
 | (k из n)     |         |            | = n(n−1)⋯(n−k+1)    |
 +--------------+---------+------------+---------------------+
 | Сочетания    | НЕТ     | НЕТ        | Cₙᵏ = n!/(k!(n−k)!) |
 | (k из n)     |         |            | = (n choose k)      |
 +--------------+---------+------------+---------------------+
 | Размещения   | ДА      | ДА         | nᵏ                  |
 | с повторен.  |         |            |                     |
 +--------------+---------+------------+---------------------+
 | Сочетания    | НЕТ     | ДА         | C_{n+k-1}^k         |
 | с повторен.  |         |            |                     |
 +--------------+---------+------------+---------------------+

 Примеры:
   • Сколько способов расставить 5 книг на полке?  P₅ = 5! = 120
   • Сколько трёхзначных чисел из цифр 1-9 без повторений?  A₉³ = 504
   • Сколько способов выбрать 3 человека из 10?  C₁₀³ = 120
   • Сколько трёхбуквенных слов из алфавита {a,b,c}?  3³ = 27

-------------------------------------------------------------------------------
 Биномиальные коэффициенты
-------------------------------------------------------------------------------

 +------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ:                                                     |
 | ⎛n⎞     n!                                                       |
 | Cₙᵏ =    ⎜ ⎟ = --------  = "n choose k"                          |
 | ⎝k⎠   k!(n−k)!                                                   |
 |                                                                  |
 | = количество способов выбрать k объектов из n (порядок не важен) |
 +------------------------------------------------------------------+

 Свойства:
   Cₙ⁰ = Cₙⁿ = 1
   Cₙᵏ = Cₙⁿ⁻ᵏ         (симметрия)
   Cₙᵏ = Cₙ₋₁ᵏ⁻¹ + Cₙ₋₁ᵏ  (рекуррентное соотношение, треугольник Паскаля)

 Треугольник Паскаля:
              1                         n=0
            1   1                       n=1
          1   2   1                     n=2
        1   3   3   1                   n=3
      1   4   6   4   1                n=4
    1   5  10  10   5   1              n=5

   Каждое число = сумма двух над ним

-------------------------------------------------------------------------------
 Бином Ньютона
-------------------------------------------------------------------------------

 +----------------------------------------------+
 | n                                            |
 | (a + b)ⁿ = Σ  Cₙᵏ · aⁿ⁻ᵏ · bᵏ                |
 | k=0                                          |
 |                                              |
 | = Cₙ⁰aⁿ + Cₙ¹aⁿ⁻¹b + Cₙ²aⁿ⁻²b² + ... + Cₙⁿbⁿ |
 +----------------------------------------------+

 Частные случаи:
   (a+b)² = a² + 2ab + b²
   (a+b)³ = a³ + 3a²b + 3ab² + b³
   (1+x)ⁿ = 1 + nx + n(n−1)x²/2 + ...

 Следствия (подставляем конкретные a, b):
   a=b=1:  2ⁿ = Σ Cₙᵏ = Cₙ⁰ + Cₙ¹ + ... + Cₙⁿ
   a=1, b=−1:  0 = Σ(−1)ᵏCₙᵏ  (сумма чётных = сумма нечётных)

-------------------------------------------------------------------------------
 Принцип включения-исключения
-------------------------------------------------------------------------------

 Для двух множеств:
   |A ∪ B| = |A| + |B| − |A ∩ B|

 Для трёх множеств:
   |A ∪ B ∪ C| = |A| + |B| + |C|
                  − |A∩B| − |A∩C| − |B∩C|
                  + |A∩B∩C|

 Общая формула для n множеств:
   |A₁ ∪ ... ∪ Aₙ| = Σ|Aᵢ| − Σ|Aᵢ∩Aⱼ| + Σ|Aᵢ∩Aⱼ∩Aₖ| − ...

 Применение: Сколько чисел от 1 до 100 не делятся ни на 2, ни на 3, ни на 5?
   |A₂∪A₃∪A₅| = 50+33+20 − 16−10−6 + 3 = 74
   Ответ: 100 − 74 = 26

-------------------------------------------------------------------------------
 Почему формулы именно такие — геометрическая интуиция
-------------------------------------------------------------------------------

 Факториал n! = объём "дискретного куба"

   Представь n! как число вершин в пространстве упорядоченных наборов.
   Каждый выбор "первый элемент, второй, ..." — это путь по дереву:

         ●----+----●----+----●----●
              |         |
              +----●    +----●
              |         |
              +----●    +----●

   На каждом уровне: n, потом n-1, потом n-2, ... вариантов.
   Всего путей: n × (n-1) × ... × 1 = n!

 C(n,k) = "объём" пространства неупорядоченных k-подмножеств

   Путей в упорядоченном выборе: n(n-1)...(n-k+1) = n!/(n-k)!
   Но k! упорядочений дают одно подмножество.
   Значит: C(n,k) = n! / (k!(n-k)!)

   Это тот же паттерн, что и в теореме о подпространствах:
   dim(V/W) = dim(V) - dim(W) — факторизация по симметрии.


Мы рассмотрели дискретные структуры (порядок, графы). Теперь — важное
дополнение к непрерывной математике: комплексные числа.

Почему здесь? Комплексные числа — это не "ещё одна числовая система".
Это место, где алгебра (умножение) и геометрия (вращения) совпадают.
Они критичны для анализа, который будет дальше.

===============================================================================
Комплексные числа — алгебра встречает геометрию
===============================================================================

-------------------------------------------------------------------------------
 Комплексные числа как взгляд на пространство
-------------------------------------------------------------------------------

 ℂ — это двумерное пространство ℝ² с дополнительной структурой:
 умножением, которое кодирует вращения и растяжения.

   Как пространство: ℂ ≅ ℝ² (плоскость)
   Как алгебра:      ℂ имеет умножение (ℝ² — нет)

 Это делает ℂ уникальным: одновременно геометрия и алгебра.

-------------------------------------------------------------------------------
 Главное открытие
-------------------------------------------------------------------------------

 Комплексные числа — это место, где алгебра и геометрия сливаются.

   Алгебра: числа, которые можно складывать и умножать
   Геометрия: точки плоскости и вращения

 Ключевой факт: умножение на eⁱᶿ = поворот на угол θ


 Один объект — три взгляда
+-------------------------+-------------------------+-------------------------+
| АЛГЕБРА                 | ГЕОМЕТРИЯ               | АНАЛИЗ                  |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| z = a + bi              | Точка (a, b)            | Пара функций            |
| (a, b ∈ ℝ, i² = −1)     | на плоскости            | Re(z), Im(z)            |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| z = |z|eⁱᶿ              | Полярные координаты     | eⁱᶿ = cos θ + i sin θ   |
| (полярная форма)        | (r, θ)                  | (формула Эйлера)        |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| Умножение на w          | Масштабирование         | Линейное                |
| z ↦ wz                  | на |w| + поворот на θ_w | отображение ℝ² → ℝ²     |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| |z| = 1                 | Единичная окружность    | Группа U(1) ≅ SO(2)     |
| (числа вида eⁱᶿ)        | S¹                      | (вращения плоскости)   |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+

 Группа U(1) — ключ ко всему


 Числа с |z| = 1 образуют группу относительно умножения:

   • Замкнутость: |z₁| = |z₂| = 1 ⇒ |z₁z₂| = 1
   • Нейтральный: e⁰ = 1
   • Обратный: (eⁱᶿ)⁻¹ = e⁻ⁱᶿ

 Это группа U(1) ≅ S¹ ≅ SO(2) ≅ ℝ/ℤ — все они одно и то же:

   +----------------+--------------------------------------------------+
   | ОБОЗНАЧЕНИЕ    | КАК СМОТРИМ                                      |
   +----------------+--------------------------------------------------+
   | U(1)           | Унитарные 1×1 матрицы (= комплексные числа |z|=1)|
   | S¹             | Окружность как топологическое пространство       |
   | SO(2)          | Группа вращений плоскости                        |
   | ℝ/ℤ            | Вещественные числа по модулю 1 (углы 0 ≡ 2π)     |
   +----------------+--------------------------------------------------+

 Связь с Фурье: базис eⁱⁿˣ = представления группы U(1).

-------------------------------------------------------------------------------
 Формула Эйлера — мост между мирами
-------------------------------------------------------------------------------

                         eⁱᶿ = cos θ + i sin θ

 Частный случай (θ = π):   e^(iπ) + 1 = 0    (тождество Эйлера)

 Связывает: e (анализ), i (алгебра), π (геометрия), 1 и 0 (арифметика)

 Доказательство (ряды Тейлора):

   eⁱˣ = Σ (ix)ⁿ/n! = Σ iⁿxⁿ/n!
       = (1 − x²/2! + x⁴/4! − ...) + i(x − x³/3! + x⁵/5! − ...)
       = cos x + i sin x

-------------------------------------------------------------------------------
 Почему ℂ "завершает" алгебру
-------------------------------------------------------------------------------

 Основная теорема алгебры:
   Любой многочлен степени n имеет ровно n корней в ℂ (с учётом кратности)

 Это значит: в ℂ решается любое алгебраическое уравнение.
 Дальше расширять числа не нужно (для решения уравнений).

 Связь с I-bis: ℂ — "конец пути" ℕ → ℤ → ℚ → ℝ → ℂ

-------------------------------------------------------------------------------
 Формулы (для вычислений)
-------------------------------------------------------------------------------

 Умножение: z₁z₂ = |z₁||z₂| eⁱ⁽ᶿ¹⁺ᶿ²⁾   (модули ×, углы +)

 Степень:   zⁿ = |z|ⁿ eⁱⁿᶿ              (формула Муавра)

 Корни:     ⁿ√z = ⁿ√|z| · eⁱ⁽ᶿ⁺²ᵖᵏ⁾/ⁿ,  k = 0,1,...,n−1  (n корней)

 Триг. тождества:  cos θ = (eⁱᶿ + e⁻ⁱᶿ)/2,  sin θ = (eⁱᶿ − e⁻ⁱᶿ)/(2i)

-------------------------------------------------------------------------------
 Конкретный пример: затухающие колебания температуры
-------------------------------------------------------------------------------

 Задача: Стенка здания. Снаружи температура колеблется (день/ночь).
 Как распространяются колебания внутрь стены?

 Уравнение теплопроводности:

   ∂T/∂t = a · ∂²T/∂x²     (a — коэффициент температуропроводности)

 Граничное условие (снаружи):  T(0,t) = T₀ + ΔT·cos(ωt)
                               (суточные колебания с периодом 24 часа)

 Решение через комплексные числа:

   Ищем T(x,t) = Re[T̃(x)·eⁱʷᵗ]  — комплексная амплитуда T̃

   Подставляем: iω·T̃ = a·d²T̃/dx²

   Характеристическое уравнение: λ² = iω/a

   Решение: λ = ±(1+i)√(ω/2a) = ±(1+i)/δ

   Где δ = √(2a/ω) — глубина проникновения температурной волны

 Физический смысл:

   T(x,t) = T₀ + ΔT·e^(−x/δ)·cos(ωt − x/δ)
                    ↑              ↑
              затухание       сдвиг фазы

   • Амплитуда колебаний затухает с глубиной как e^(−x/δ)
   • Фаза запаздывает: максимум внутри наступает позже, чем снаружи

 Численный пример:
   Кирпичная стена: a ≈ 0.5×10⁻⁶ м²/с
   Суточные колебания: ω = 2π/(24·3600) ≈ 7.3×10⁻⁵ рад/с
   Глубина проникновения: δ = √(2·0.5×10⁻⁶/7.3×10⁻⁵) ≈ 0.12 м

   На глубине 30 см: амплитуда падает в e^(0.3/0.12) ≈ 12 раз.

 Мораль: Комплексные числа — не "воображаемые". Они естественно
 появляются при решении уравнений с колебаниями и затуханием.

-------------------------------------------------------------------------------
 Куда ведёт
-------------------------------------------------------------------------------

 Квантовая механика: состояния — комплексные, фаза eⁱᶿ физически важна
   Волновая функция ψ(x) ∈ ℂ, вероятность = |ψ|²

 Электротехника: импеданс Z = R + iX, фазовые соотношения

 Теория управления: передаточные функции, анализ устойчивости

 Кватернионы ℍ: обобщение на 4D, три "мнимые единицы" i,j,k
   Вращения в 3D = SU(2) = единичные кватернионы


-------------------------------------------------------------------------------
Зачем нужны категории — мотивация
-------------------------------------------------------------------------------

 Проблема и решение


 Проблема: В математике есть много похожих конструкций

   • Гомоморфизм групп, гомоморфизм колец, непрерывное отображение.
   • Произведение множеств, прямое произведение групп, произведение топол.
   • Ядро гомоморфизма, ядро линейного оператора.

 Задача: выделить общий паттерн из частных случаев

 Ответ: теория категорий — язык для описания "структуры структур"

 Лозунг: "Математика — это то, что остаётся, когда забываешь конкретику"


===============================================================================
Определение категории
===============================================================================

-------------------------------------------------------------------------------
 Определение: категория
-------------------------------------------------------------------------------

 Категория C состоит из:

 1. Объекты: класс Ob(C)
    (множества, группы, топологические пространства, ...)

 2. Морфизмы: для каждой пары объектов A, B — множество Hom(A, B)
    (функции, гомоморфизмы, непрерывные отображения, ...)

 3. Композиция: для f: A → B и g: B → C определена g∘f: A → C

 Аксиомы:
   (C1) Ассоциативность: (h∘g)∘f = h∘(g∘f)
   (C2) Единица: для каждого A существует id_A: A → A такой, что
        f∘id_A = f и id_B∘f = f для любого f: A → B


 Равенство "=" vs изоморфизм "≅" — критическое различие


 В теории категорий это различие принципиально:

 Равенство (=): Объекты буквально совпадают, это один объект.
 Изоморфизм (≅): Объекты "устроены одинаково", но это разные объекты.

 Примеры:
   • V ≅ V** (изоморфизм), но V ≠ V** (разные множества)
     Канонический изоморфизм существует, но это не равенство.

   • ℝ² ≅ ℂ как векторные пространства, но ℝ² ≠ ℂ
     (ℂ имеет умножение, ℝ² — нет)

   • Все одноэлементные множества изоморфны, но {0} ≠ {1}

 В этом атласе мы иногда пишем "=", где математик написал бы "≅".
 Это осознанное упрощение для читаемости, но помните:

   Изоморфизм означает "можно отождествить без потери информации"
   Равенство означает "это буквально одно и то же"

-------------------------------------------------------------------------------
 Визуализация
-------------------------------------------------------------------------------

   Категория — это ориентированный граф с композицией:

          f           g
     A ------► B ------► C
      ╲                 ╱
       ╲               ╱
        ╲    g∘f     ╱
         ╲---------╱

   • Объекты = вершины
   • Морфизмы = стрелки
   • Композиция = склеивание путей
   • В каждой вершине есть петля id


===============================================================================
Примеры категорий
===============================================================================

 Основные категории
+-----------+---------------------+-------------------------+
| КАТЕГОРИЯ | ОБЪЕКТЫ             | МОРФИЗМЫ                |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Set       | Множества           | Функции                 |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Grp       | Группы              | Гомоморфизмы групп      |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Ab        | Абелевы группы      | Гомоморфизмы групп      |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Ring      | Кольца              | Гомоморфизмы колец      |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Vect_k    | Векторные пр-ва     | Линейные отображения    |
|           | над полем k         |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Top       | Топологические      | Непрерывные отображения |
|           | пространства        |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Man       | Гладкие             | Гладкие отображения     |
|           | многообразия        |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Pos       | Частично            | Монотонные функции      |
|           | упорядоченные мн-ва |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| hTop      | Топологические      | Гомотопические классы   |
|           | пространства        | отображений             |
|           |                     |                         |
+-----------+---------------------+-------------------------+

-------------------------------------------------------------------------------
 "Маленькие" категории
-------------------------------------------------------------------------------

 Категория из одного объекта = моноид

   • Один объект ●
   • Морфизмы ● → ● = элементы моноида
   • Композиция = умножение в моноиде
   • id = единица моноида

   Если все морфизмы обратимы → группа

 Категория из частичного порядка:

   • Объекты = элементы множества
   • Hom(a,b) = {единственная стрелка}, если a ≤ b, иначе ∅
   • Композиция: a ≤ b ≤ c ⇒ a ≤ c (транзитивность)

-------------------------------------------------------------------------------
 Универсальные конструкции: произведение в разных категориях
-------------------------------------------------------------------------------

 "Произведение A × B" определяется одинаково во всех категориях:

   Объект P с проекциями π₁: P → A и π₂: P → B такой, что
   для любого Q со стрелками f: Q → A и g: Q → B существует
   единственная стрелка h: Q → P с π₁∘h = f и π₂∘h = g.

                       Q
                     ╱ | ╲
                 f ╱   |h  ╲ g
                  ╱    |    ╲
                 ↓     ↓     ↓
                A ←-- P ---→ B
                    π₁   π₂

 Что это даёт в конкретных случаях:

 +---------------+-------------------------------------------+
 | КАТЕГОРИЯ     | Что такое A × B                           |
 +---------------+-------------------------------------------+
 | Set           | Декартово произведение {(a,b) : a∈A, b∈B} |
 | Grp           | Прямое произведение групп                 |
 | Top           | Произведение с топологией произведения    |
 | Vect          | Прямая сумма V ⊕ W                        |
 | Множества с ≤ | Покомпонентный порядок (a₁,b₁)≤(a₂,b₂)    |
 +---------------+-------------------------------------------+

 Вывод: Одно определение → много реализаций.
 Категорный язык выявляет общую структуру разных конструкций.


===============================================================================
Функторы — отображения между категориями
===============================================================================

-------------------------------------------------------------------------------
 Ключевая мысль
-------------------------------------------------------------------------------

   "Видеть аналогии между аналогиями — значит уметь отображать
    отображения между различными категориями"

   Функтор — это именно это: способ перенести структуру из одной
   области математики в другую, сохраняя связи между объектами.

-------------------------------------------------------------------------------
 Определение: функтор
-------------------------------------------------------------------------------

 Бытовая аналогия: Функтор — это переводчик между языками математики.

   Представьте: есть книга на русском (категория C) и её перевод на
   английский (категория D). Хороший перевод (функтор F):
   • Каждому слову/понятию сопоставляет слово/понятие: A ↦ F(A)
   • Каждой связи между понятиями — связь: (A→B) ↦ (F(A)→F(B))
   • Сохраняет логику: если A→B→C, то F(A)→F(B)→F(C)

   Пример: π₁ — "переводчик" с языка топологии на язык алгебры.
   Топологическому пространству сопоставляет группу,
   непрерывному отображению — гомоморфизм групп.


 Функтор F: C → D между категориями C и D состоит из:

 1. Отображения объектов: A ↦ F(A)
 2. Отображения морфизмов: f ↦ F(f), где если f: A → B, то F(f): F(A) → F(B)

 Аксиомы:
   (F1) F(g∘f) = F(g)∘F(f)     (сохраняет композицию)
   (F2) F(id_A) = id_{F(A)}    (сохраняет единицу)

 Визуализация:

     C                               D
     f                               F(f)
   A --► B         F         F(A) ---► F(B)
          ╲       --►              ╲
       g   ╲                   F(g) ╲
            ▼                        ▼
            C                       F(C)

   Функтор — это "переводчик" между категориями,
   сохраняющий структуру (стрелки и их композицию).


 Примеры функторов

+--------------------+----------------+---------------------------------------+
| ТИП                | ФУНКТОР        | ЧТО ДЕЛАЕТ                            |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| забывающие         | Grp → Set      | Группа ↦ множество (забыли операцию)  |
| (теряют структуру) | Vect → Set     | Пространство ↦ множество векторов     |
|                    | Top → Set      | Пространство ↦ множество точек        |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| свободные          | Set → Grp      | X ↦ свободная группа F(X)             |
| (добавляют стр.)   | Set → Vect     | X ↦ пространство с базисом X          |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| топологические     | π₁: Top → Grp  | Пространство ↦ фунд. группа           |
| инварианты         | Hₙ: Top → Ab   | Пространство ↦ n-гомологии            |
|                    | χ: Top → ℤ     | Пространство ↦ эйлерова хар-ка        |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| алгебраические     | *: Vect → Vect | V ↦ V* (двойственное)                 |
|                    | T: Man → VBund | M ↦ TM (касательное расслоение)       |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+

 Ковариантные vs контравариантные

+--------------------+--------------------------------------------------------+
| КОВАРИАНТНЫЙ       | f: A→B  даёт  F(f): F(A)→F(B)   (стрелка туда же)      |
+--------------------+--------------------------------------------------------+
| КОНТРАВАРИАНТНЫЙ   | f: A→B  даёт  F(f): F(B)→F(A)   (стрелка обратно)      |
| Пример: V ↦ V*     | T: V→W  даёт  T*: W*→V*        (развернулась)         |
+--------------------+--------------------------------------------------------+

===============================================================================
Естественные преобразования
===============================================================================

-------------------------------------------------------------------------------
 Определение: естественное преобразование
-------------------------------------------------------------------------------

 Пусть F, G: C → D — два функтора. Естественное преобразование η: F ⇒ G
 — это семейство морфизмов {η_A: F(A) → G(A)}_{A ∈ Ob(C)}, такое что
 для любого f: A → B коммутирует диаграмма:

        η_A
   F(A) ----► G(A)
     |         |
 F(f)|         |G(f)
     ▼         ▼
   F(B) ----► G(B)
        η_B

 То есть: G(f) ∘ η_A = η_B ∘ F(f)

 Пояснение:
   Естественное преобразование — это "морфизм между функторами",
   который согласован со всеми морфизмами в исходной категории.

-------------------------------------------------------------------------------
 Пример: двойное двойственное
-------------------------------------------------------------------------------

 Функторы Id, **: Vect → Vect
   Id(V) = V
   **(V) = V**

 Естественное преобразование η: Id ⇒ **
   η_V: V → V**
   η_V(v)(φ) = φ(v)

 Естественность:
   Для любого T: V → W диаграмма коммутирует:

        η_V
     V ----► V**
     |        |
   T |        | T**
     ▼        ▼
     W ----► W**
        η_W

 Это канонический изоморфизм V ≅ V** (не требует выбора базиса)


===============================================================================
Универсальные свойства
===============================================================================

-------------------------------------------------------------------------------
 Идея универсального свойства
-------------------------------------------------------------------------------

 Многие конструкции в математике определяются не явной формулой,
 а свойством: "единственный объект с таким-то свойством".

 Это и есть универсальное свойство.

 Преимущество: Определение работает во всех категориях одинаково.

-------------------------------------------------------------------------------
 Произведение (универсальное определение)
-------------------------------------------------------------------------------

 Произведение объектов A и B — это объект A×B с проекциями π₁, π₂:

                    π₁        π₂
              A ◄---- A×B ----► B

 такой, что для любого X с отображениями f: X→A, g: X→B
 существует единственное h: X → A×B с π₁∘h = f, π₂∘h = g:

                       X
                    f╱   ╲g
                   ╱  h   ╲
                  ╱   |    ╲
                 ▼    ▼     ▼
              A ◄-- A×B --► B

 Примеры:
   Set: A×B = декартово произведение
   Grp: A×B = прямое произведение групп
   Top: A×B = произведение с топологией произведения
   Vect: A×B = прямая сумма A⊕B

-------------------------------------------------------------------------------
 Одно определение — все эти конструкции.
-------------------------------------------------------------------------------

 Таблица универсальных конструкций
+------------------+-------------------------------------------------+
| КОНСТРУКЦИЯ      | УНИВЕРСАЛЬНОЕ СВОЙСТВО                          |
+------------------+-------------------------------------------------+
|                  |                                                 |
| Произведение A×B | Пара проекций, факторизующая любую пару стрелок |
|                  |                                                 |
| Копроизведение   | Пара вложений, факторизующая любую пару стрелок |
| A⊔B (сумма)      | (дуально к произведению)                        |
|                  |                                                 |
| Терминальный     | Единственная стрелка из любого объекта          |
| объект 1         | (одноэлементное мн-во, тривиальная группа)      |
|                  |                                                 |
| Начальный        | Единственная стрелка в любой объект             |
| объект 0         | (пустое мн-во, тривиальная группа)              |
|                  |                                                 |
| Ядро f           | Уравнитель f и 0                                |
|                  |                                                 |
| Коядро f         | Коуравнитель f и 0                              |
|                  |                                                 |
| Pullback         | "Произведение над объектом"                     |
|                  |                                                 |
| Pushout          | "Копроизведение под объектом"                   |
|                  |                                                 |
| Предел           | Обобщение произведения на диаграммы             |
|                  |                                                 |
| Копредел         | Обобщение суммы на диаграммы                    |
|                  |                                                 |
+------------------+-------------------------------------------------+


  Универсальные конструкции в разных категориях

 Одно определение через универсальное свойство имеет разные реализации:

+----------------+------------+------------+------------+----------------------+
| КОНСТРУКЦИЯ    | Set        | Grp        | Vect       | Top                  |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Произведение   | A×B        | G×H        | V⊕W        | X×Y с топ.           |
| (A,B)→A×B      | (декартово)| (прямое)   | (прямая ⊕) | произведения         |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Копроизведение | A⊔B        | G*H        | V⊕W        | X⊔Y с топ.           |
| (сумма)        | (дизъюнкт.)| (свободное)| (та же)   | суммы                |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Терминальный   | {*}        | {e}        | {0}        | {*}                  |
| объект         | (одноэлем)| (тривиал.) | (нулевое)  | (точка)              |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Начальный      | ∅          | {e}        | {0}        | ∅                   |
| объект         | (пустое)   | (тривиал.) | (нулевое)  | (пустое)             |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+

 Замечание: В Vect произведение = копроизведение = ⊕ (абелева категория)
            В Grp они разные: ×≠* (прямое ≠ свободное)

-------------------------------------------------------------------------------
 Определение: сопряжённость
-------------------------------------------------------------------------------

 Функторы F: C → D и G: D → C называются сопряжёнными (F ⊣ G), если
 существует естественный изоморфизм:

   Hom_D(F(A), B) ≅ Hom_C(A, G(B))

 F — левый сопряжённый, G — правый сопряжённый.

-------------------------------------------------------------------------------
 Примеры сопряжённых функторов
-------------------------------------------------------------------------------

 Свободный ⊣ забывающий:

   F: Set → Grp (свободная группа)
   U: Grp → Set (забывающий функтор)

   Hom_Grp(F(X), G) ≅ Hom_Set(X, U(G))

   "Гомоморфизм из свободной группы F(X) в G
    определяется отображением множества X в G"

 Тензорное ⊣ hom:

   − ⊗ B: Vect → Vect
   Hom(B, −): Vect → Vect

   Hom(A ⊗ B, C) ≅ Hom(A, Hom(B, C))

   Это каррирование из функционального программирования.

   Программистская аналогия:
     Функция от двух аргументов f(a, b) → c
     эквивалентна функции, возвращающей функцию: a → (b → c)

   В Haskell: curry :: ((a, b) -> c) -> (a -> (b -> c))
              uncurry :: (a -> (b -> c)) -> ((a, b) -> c)

   Это не просто совпадение — это один и тот же универсальный принцип,
   который в математике называется сопряжённостью функторов.


-------------------------------------------------------------------------------
Резюме
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Иерархия категорной математики
-------------------------------------------------------------------------------

   Уровень 0:  Объекты (множества, группы, пространства)
                   |
   Уровень 1:  Морфизмы между объектами (функции, гомоморфизмы)
                   |
   Уровень 2:  Функторы между категориями
                   |
   Уровень 3:  Естественные преобразования между функторами
                   |
   Уровень 4:  Модификации между ест. преобразованиями (2-категории)
                   |
       .      (∞-категории, гомотопическая теория типов)

-------------------------------------------------------------------------------
 Зачем это нужно — практические применения
-------------------------------------------------------------------------------

 Математика:
   • Унификация: одно доказательство работает во всех категориях
   • Гомологическая алгебра: функторы Ext, Tor
   • Алгебраическая геометрия: пучки, схемы
   • Топос-теория: обобщение теории множеств

 Программирование:
   • Функциональное программирование: функторы, монады
   • Теория типов: соответствие Карри-Говарда-Ламбека
   • Haskell, Scala: категорные конструкции в языке

 Физика:
   • TQFT: функторы из категории кобордизмов
   • Квантовая гравитация: спиновые пены, ∞-категории

 Логика:
   • Доказательства = морфизмы
   • Типы = объекты
   • Эквивалентность = изоморфизм


===============================================================================
Алгебраическая геометрия — мост между алгеброй и геометрией
===============================================================================

Алгебраическая геометрия — одна из центральных областей современной математики.
Она изучает геометрические объекты, заданные алгебраическими уравнениями.

 Главная идея: двойственность геометрия ↔ алгебра

 +-----------------------+-----------------------------------+
 | ГЕОМЕТРИЯ             | АЛГЕБРА                           |
 +-----------------------+-----------------------------------+
 | Множество точек X     | Кольцо функций на X               |
 |                       | (или идеал уравнений, задающих X) |
 +-----------------------+-----------------------------------+
 | Точка p ∈ X           | Максимальный идеал m_p ⊂ k[X]     |
 +-----------------------+-----------------------------------+
 | Подмногообразие Y ⊂ X | Идеал I(Y) ⊂ k[X]                 |
 +-----------------------+-----------------------------------+
 | Отображение X → Y     | Гомоморфизм колец k[Y] → k[X]     |
 |                       | (в ОБРАТНУЮ сторону)             |
 +-----------------------+-----------------------------------+
 | X неприводимо         | I(X) — простой идеал              |
 | (одним куском)        |                                   |
 +-----------------------+-----------------------------------+

 Это как словарь между двумя языками — каждому геометрическому
 понятию соответствует алгебраическое, и наоборот.


 Примеры алгебраических многообразий

 +------------------+------------------+----------------------------+
 | УРАВНЕНИЕ        | ГЕОМЕТРИЯ        | СВОЙСТВА                   |
 +------------------+------------------+----------------------------+
 | x² + y² = 1      | Окружность       | Род 0, рациональная кривая |
 +------------------+------------------+----------------------------+
 | y² = x³ + ax + b | Эллиптическая    | Род 1, группа точек.       |
 |                  | кривая           | Криптография (ECDSA)       |
 +------------------+------------------+----------------------------+
 | x² + y² + z² = 1 | Сфера S²         | Квадрика, рациональная пов.|
 +------------------+------------------+----------------------------+
 | xy = 1           | Гипербола        | Две компоненты в ℝ,        |
 |                  |                  | одна в ℂ                   |
 +------------------+------------------+----------------------------+
 | y² = x³          | Кривая с остриём | Сингулярная в (0,0)        |
 |                  | (cuspidal curve) |                            |
 +------------------+------------------+----------------------------+


 Теорема Гильберта о нулях (Nullstellensatz)


 Это фундамент алгебраической геометрии — связь между идеалами и точками.

 Пусть k — алгебраически замкнутое поле (например, ℂ).

 +------------------------------------------------+
 | ТЕОРЕМА: Для идеала I ⊂ k[x₁,...,xₙ]           |
 |                                                |
 | I(V(I)) = √I                                   |
 |                                                |
 | где V(I) = {точки, обнуляющие все f ∈ I}       |
 | I(X) = {многочлены, обнуляющиеся на X}         |
 | √I  = {f : fⁿ ∈ I для некоторого n}  (радикал) |
 +------------------------------------------------+

 Следствие: Максимальные идеалы в k[x₁,...,xₙ] ↔ точки kⁿ
   Идеал m = (x₁ − a₁, ..., xₙ − aₙ) соответствует точке (a₁,...,aₙ)

-------------------------------------------------------------------------------
 Категорный взгляд: схемы
-------------------------------------------------------------------------------

 Классическое многообразие = точки + структура.
 Схема (Гротендик) = пространство + структурный пучок колец.

 +------------------+--------------------------------+
 | КЛАССИКА         | СХЕМЫ                          |
 +------------------+--------------------------------+
 | Точки = решения  | Точки = простые идеалы (Spec)  |
 | над k            | (включая "generic points".)    |
 +------------------+--------------------------------+
 | Только над полем | Над любым кольцом (ℤ, 𝔽ₚ, ...) |
 +------------------+--------------------------------+
 | Приведённые      | Нильпотенты сохраняют          |
 | (x² = 0 ⇒ x = 0) | "бесконечно малую" информацию  |
 +------------------+--------------------------------+
 | Контравариантный | Категория AffSch ≃ CRingᵒᵖ     |
 | функтор          | (аффинные схемы = кольцаᵒᵖ)    |
 +------------------+--------------------------------+

 Зачем схемы:
   • Единообразно работать над ℚ, ℝ, ℂ, 𝔽ₚ, ℤ
   • Теория чисел: уравнение x² + y² = 1 над ℤ — это схема
   • Модули: параметризовать семейства объектов


 Связь с другими разделами

 +--------------------+-------------------------------------------------+
 | РАЗДЕЛ             | СВЯЗЬ С АГ                                      |
 +--------------------+-------------------------------------------------+
 | Кольца             | Кольцо функций = "алгебра геометрии"            |
 |                    | Идеалы = подмногообразия                        |
 +--------------------+-------------------------------------------------+
 | Топология          | Топология Зарисского: замкнутые = V(I)          |
 |                    | Грубее евклидовой, но алгебраически естественна |
 +--------------------+-------------------------------------------------+
 | Категории          | Пучки, когомологии, функторы                    |
 |                    | Схемы = контравариантные функторы               |
 +--------------------+-------------------------------------------------+
 | Теория чисел (5.4) | Диофантовы уравнения = рациональные точки       |
 |                    | Кривые над 𝔽ₚ, гипотеза Вейля                   |
 +--------------------+-------------------------------------------------+
 | Комплексный анализ | Алгебраические кривые = римановы поверхности    |
 |                    | Род = топологический инвариант                  |
 +--------------------+-------------------------------------------------+

-------------------------------------------------------------------------------
Таблица категорий
-------------------------------------------------------------------------------

 Категория = (Объекты, Морфизмы, Композиция)
 Задача: определить критерий "одинаковости" объектов

+-----------+-----------------+------------------+------------------------+
| КАТЕГОРИЯ | ОБЪЕКТЫ         | МОРФИЗМЫ         | "ОДИНАКОВЫЕ" =         |
+-----------+-----------------+------------------+------------------------+
| Set       | Множества       | Функции          | Биекция (равномощны)   |
| Grp       | Группы          | Гомоморфизмы     | Изоморфизм групп       |
| Ab        | Абелевы группы  | Гомоморфизмы     | Изоморфизм             |
| Ring      | Кольца          | Гом. колец       | Изоморфизм колец       |
| Vect_K    | Вект. пр-ва / K | Лин. отображения | Изоморфизм (dim равны) |
| Top       | Топол. пр-ва    | Непрерывные      | Гомеоморфизм           |
| Man       | Многообразия    | Гладкие          | Диффеоморфизм          |
| Met       | Метрич. пр-ва   | Непрерывные      | Изометрия              |
| Pos       | Частич. порядки | Монотонные       | Изоморфизм порядков    |
+-----------+-----------------+------------------+------------------------+

+-----------+---------------------------------------------------------------+
| КАТЕГОРИЯ | ОСОБЕННОСТЬ                                                   |
+-----------+---------------------------------------------------------------+
| 0         | Пустая: нет объектов, нет морфизмов                           |
| 1         | Один объект *, только тождественный морфизм                   |
| 2         | Два объекта 0 → 1, одна нетривиальная стрелка                 |
| BG        | Группа G как категория: один объект, морфизмы = элементы G    |
| Cat       | Категория категорий: объекты = категории, морфизмы = функторы |
+-----------+---------------------------------------------------------------+

-------------------------------------------------------------------------------
          Заключение части II: единство структур
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Иерархия структур — главная таблица с примерами и историей
-------------------------------------------------------------------------------

Эта таблица показывает математику как иерархию уровней абстракции.
Каждый уровень строится на предыдущем.

Горизонталь = уровень абстракции (снизу вверх — от пустоты к физике)
Вертикаль = тип структуры (какую информацию мы сохраняем)

+----------+-----------------+-----------------+-----------------+-----------------+
| УРОВЕНЬ  |  ДИСКРЕТНОЕ     |  АЛГЕБРАИЧЕСКОЕ |  ТОПОЛОГИЧЕСКОЕ |  АНАЛИТИЧЕСКОЕ  |
|          |  (множества)    |  (операции)     |  (близость)     |  (изменение)    |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 0|   ПУСТОТА ∅     |                 |                 |                 |
| Исток    | "Вселенная есть |                 |                 |                 |
| ~XIII BC |  пустота"       |                 |                 |                 |
| (филос.) |                 |                 |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 1|  ГРАНИЦЫ/ОБРАЗЫ |                 |                 |                 |
| Выбор    | "Проведение     |   (операции     |  (близость      |  (изменение     |
| доязыков.|  границ"        |   появятся      |   появится      |   появится      |
|          | Манипуляции     |   позже)        |   позже)        |   позже)        |
|          | паттернами      |                 |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 2| ТЕОРИЯ МНОЖЕСТВ |  ОТНОШЕНИЯ      |                 |                 |
| Категори-|  A, B, ∈, ⊆     |  R ⊆ A × B      |    (нет пока)   |   (нет пока)    |
| зация    |  ∪, ∩, ×, ∅     |  Эквивалентность|                 |                 |
| ~1870    |  𝒫(A)           |  Порядок        |                 |                 |
| Кантор   |  Натуральные ℕ  |  Функция f:A→B  |                 |                 |
|          |  из ∅           |                 |                 |                 |
|          |                 |                 |                 |                 |
| Примеры: | • ℕ,ℤ,ℚ,ℝ как   | • = (равенство) |                 |                 |
|          |   множества     | • < (порядок)   |                 |                 |
|          | • Булеан 𝒫(A)   | • f: A → B      |                 |                 |
|          |                 |   (функции)     |                 |                 |
|          |                 |                 |                 |                 |
| задачи:  | • Доказать A⊆B  | • Доказать, что |                 |                 |
|          | • |𝒫(A)| = 2^|A||   R транзитивно |                 |                 |
|          | • Построить ℕ   | • Найти f⁻¹(B)  |                 |                 |
|          |   из ∅          |                 |                 |                 |
|          |                 |                 |                 |                 |
| зачем:   | Базовый язык    | Описание связей |                 |                 |
|          | для всего       | между объектами |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 3|  КОММУНИКАЦИЯ   |      ЛОГИКА     |                 |                 |
| Язык     | Естественные    |  ∀, ∃, ∧, ∨, ⇒  |   (понятие      |  (отсутствует   |
| ~300 BC  | языки           |  Правила вывода |   истинности)   |   на этом       |
|Аристотель| Символы         |  Доказательства |                 |   уровне)       |
|          |                 |                 |                 |                 |
| Примеры: | • Греческий,    | • Силлогизмы    |                 |                 |
|          |   латынь, ...   | • Modus ponens  |                 |                 |
|          |                 | • Предикатная   |                 |                 |
|          |                 |   логика        |                 |                 |
|          |                 |                 |                 |                 |
| задачи:  | • Перевод между | • Проверить     |                 |                 |
|          |   языками       |   корректность  |                 |                 |
|          |                 |   вывода        |                 |                 |
|          |                 |                 |                 |                 |
| зачем:   | Передача знаний | Компенсация     |                 |                 |
|          |                 | потерь языка    |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 4|   ЧИСЛА         |   ГРУППЫ        |  МЕТРИЧЕСКИЕ    |   ФУНКЦИИ       |
| Базовые  |  ℤ, ℚ, ℝ, ℂ     |   (G, ∗)        |  пространства   |   f: ℝ → ℝ      |
| структуры|  (из ℕ)         |   Подгруппы     |   (X, d)        |   Непрерывные   |
| ~300 BC  |  +, ×, <        |   Изоморфизм    |   Открытые мн-ва|   Дифференц-ые  |
| Евклид   |                 |                 |   Полнота       |                 |
| ~1830    |                 |   кольца        |  ~1900 Фреше    |  ~1670 Ньютон   |
| Галуа    |                 |   (R, +, ×)     |                 |  ~1680 Лейбниц  |
| ~1670    |                 |   ПОЛЯ          |                 |                 |
| Ньютон   |                 |   (F, +, ×)     |                 |                 |
|          |                 |                 |                 |                 |
| Примеры: | • ℤ (целые)     | • (ℤ, +)        | • ℝ с |x-y|     | • f(x) = x²     |
|          | • ℚ (рациональн)| • (ℝ*, ×)       | • ℝⁿ с евклид.  | • sin, cos, exp |
|          | • ℝ (веществен.)| • S₃ (перестан.)|   метрикой      | • многочлены    |
|          | • ℂ (комплексны)| • GL(n) (матриц)| • C[0,1] (функц)|                 |
|          |                 |                 |                 |                 |
| задачи:  | • Решить        | • Найти         | • Показать      | • Найти предел  |
|          |   уравнение     |   подгруппы     |   полноту       | • Найти         |
|          | • Доказать      | • Проверить     | • Доказать      |   производную   |
|          |   иррациональн. |   изоморфизм    |   сходимость    | • Вычислить     |
|          |                 |                 |                 |   интеграл      |
|          |                 |                 |                 |                 |
| зачем:   | Вычисления,     | Симметрии,      | Понятие         | Моделирование   |
|          | измерения       | криптография    | расстояния      | процессов       |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 5|  ГРАФЫ          |  ВЕКТОРНЫЕ      |  ТОПОЛОГИЧЕСКИЕ |  МЕРЫ           |
| Сложные  |   G = (V, E)    |  ПРОСТРАНСТВА   |  ПРОСТРАНСТВА   |   (X, 𝒜, μ)     |
| структуры|   Деревья       |   (V, +, ·)     |   (X, τ)        |   σ-алгебра     |
| ~1730    |   Сети          |   Базис, dim    |   Компактность  |   Интеграл      |
| Эйлер    |                 |   Норма ‖·‖     |   Связность     |   Лебега        |
| ~1850    |  комбинаторика  |                 |   Гомеоморфизм  |                 |
| Кэли     |   Перестановки  |  линейные       |  ~1900 Хаусдорф |  вероятность    |
| ~1880    |   Сочетания     |  отображения    |                 |   (Ω, ℱ, P)     |
| Грассман |                 |   T: V → W      |                 |   Случ. величины|
| ~1900    |                 |   Матрицы       |                 |   E[X], Var[X]  |
| Лебег    |                 |   ker, Im       |                 |                 |
|          |                 |   Собств. значен|                 |  ~1933 Колмогор.|
|          |                 |                 |                 |                 |
| Примеры: | • K₅ (полный)   | • ℝⁿ            | • ℝ (станд.топ.)| • Мера Лебега   |
|          | • Дерево        | • C[0,1] (функц)| • Окружность S¹ | • Вероятностная |
|          | • Планарный граф| • L² (Гильберт) | • Тор T²        |   мера          |
|          | • Сеть дорог    | • Матрицы m×n   | • Канторово мн-в| • Считающая мера|
|          |                 |                 |                 |                 |
| задачи:  | • Найти         | • Найти базис   | • Показать      | • Вычислить     |
|          |   кратчайший    | • Проверить лин.|   компактность  |   меру          |
|          |   путь          |   независимость | • Доказать      | • Построить     |
|          | • Раскрасить    | • Решить СЛУ    |   связность     |   измеримую     |
|          |   граф          | • Найти собств. | • Найти         |   функцию       |
|          | • Найти остов   |   значения      |   гомеоморфизм  |                 |
|          |                 |                 |                 |                 |
| зачем:   | Сети, связи,    | Линейная        | "Форма" без     | Обобщение       |
|          | оптимизация     | алгебра для     | расстояния,     | интеграла,      |
|          | путей           | всего           | деформации      | вероятность     |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| УРОВЕНЬ 6|     ФИЗИКА      |  ГРУППЫ ЛИ      |  МНОГООБРАЗИЯ   |  ФУНКЦИОНАЛЬНЫЕ |
| Примене- |  "Математика =  |  Непрерывные    |   M (гладкие)   |  пространства   |
| ние к    |   эксперимент.  |  симметрии      |   TₚM (касат.)  |   Cᵏ, Lᵖ      |
| миру     |   физика"       |                 |   Римановы      |   Банаховы      |
| ~1915    |                 |  ~1870 Ли       |   Кривизна      |   Гильбертовы   |
| Эйнштейн |  категории      |                 |  ~1850 Риман    |                 |
| ~1930    |   Объекты       |  АЛГЕБРЫ        |                 |  ОПЕРАТОРЫ      |
| категории|   Морфизмы      |   над полями    |  расслоения     |   Спектр σ(T)   |
| ~1920    |   Функторы      |                 |   Связности     |   Сопряжённые   |
| Банах    |                 |  алгебры ЛИ     |   Формы         |                 |
| ~1945    |                 |                 |                 |  ~1920 Банах    |
| Эйленберг|                 |                 |                 |                 |
|          |                 |                 |                 |                 |
| Примеры: | • ОТО (геометр.)| • SO(3) (вращен)| • Сфера S²      | • L²(ℝ)         |
|          | • КМ (операторы)| • SU(2) (спин)  | • Тор T²        | • Cᵏ[0,1]      |
|          | • Категория Set | • U(1) (электр.)| • Пр-во-время   | • Операторы     |
|          | • Функторы      |                 |   (4-многообр.) |   в гильб. пр-ве|
|          |                 |                 |                 |                 |
| задачи:  | • Найти         | • Найти алгебру | • Вычислить     | • Найти спектр  |
|          |   симметрии     |   Ли            |   кривизну      |   оператора     |
|          | • Построить     | • Найти         | • Построить     | • Решить        |
|          |   функтор       |   представление |   касательное   |   уравнение     |
|          | • Применить к   | • Использовать  |   расслоение    |   в гильб. пр-ве|
|          |   физике        |   в физике      |                 |                 |
|          |                 |                 |                 |                 |
| зачем:   | Единая          | Непрерывные     | Искривлённые    | Квантовая       |
|          | структура всей  | симметрии,      | пространства,   | механика,       |
|          | математики,     | калибровочные   | гравитация,     | бесконечномерн. |
|          | применение      | теории          | ОТО             | анализ          |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+

Легенда (снизу вверх — от пустоты к физике):

  [Уровень 0] = пустота — исток всего
  [уровень 1] = границы/образы — проведение границ, манипуляции паттернами
  [Уровень 2] = множества — категоризация, построение ℕ из ∅
  [уровень 3] = язык и логика — коммуникация, доказательства
  [Уровень 4] = базовые структуры — один вид структуры
  [Уровень 5] = комбинированные — несколько структур одновременно
  [Уровень 6] = физика — применение к миру, категорная теория

Вертикальные связи (что сохраняется):

  • Дискретное: элементы, подмножества (без операций и расстояний)
  • Алгебраическое: операции и их свойства (∗, +, ×)
  • Топологическое: понятие "близости" (без расстояния)
  • Аналитическое: измерение и изменение (интегралы, производные)

Ключевой принцип:

  Математика — естественная иерархия, возникающая из фундаментального
  акта проведения границ в пустоте. Каждый уровень опирается на предыдущий.

Важные наблюдения:

1. История идёт снизу вверх: ~300 BC → ~1670 → ~1830 → ~1900 → ~1930 → ~1945

2. Каждый уровень опирается на предыдущие: нельзя понять многообразия
   без топологии. Нельзя понять топологию без множеств.

3. Четыре столпа развивались параллельно: но в XX веке объединились

-------------------------------------------------------------------------------
Таблица аналогий — один паттерн в разных областях
-------------------------------------------------------------------------------

Эта таблица показывает: один и тот же паттерн проявляется во всех областях.

"Научившись понимать паттерн, видите его везде"

+---------------+--------------+---------------+--------------+---------------+
| ПОНЯТИЕ       | МНОЖЕСТВА    | АЛГЕБРА       | ТОПОЛОГИЯ    | АНАЛИЗ        |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| ПОДОБЪЕКТ     | A ⊆ B        | H ≤ G         | U ⊆ X        | W ⊆ V         |
|               | Подмножество | Подгруппа     | Подпр-во     | Подпр-во      |
|               |              | Подкольцо     | (с индуц.    | (замкнутое)   |
|               |              |               | топологией)  |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| МОРФИЗМ       | f: A → B     | φ: G → H      | f: X → Y     | T: V → W      |
|               | Функция      | Гомоморфизм   | Непрерывное  | Линейный      |
|               |              |               | отображение  | оператор      |
|               |              |               |              |               |
| (отображение, |              |               |              |               |
| сохраняющее   |              |               |              |               |
| структуру)    |              |               |              |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| изоморфизм    | Биекция      | G ≅ H         | X ≈ Y        | V ≅ W         |
|               | f: A ↔ B     | Изоморф.      | Гомеоморф.   | Изоморфизм    |
|               |              | групп         | пространств  | вект. пр-в    |
| (структуры    |              |               |              |               |
| "одинаковы")  |              |               |              |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| ПРОИЗВЕДЕНИЕ  | A × B        | G × H         | X × Y        | V ⊕ W         |
|               | Декартово    | Прямое        | Произведение | Прямая сумма  |
|               | произведение | произведение  | топологий    |               |
|               |              |               |              |               |
| (комбинация)  | Пары (a,b)   | Пары (g,h)    | Пары (x,y)   | Сумма v + w   |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| ЧАСТНОЕ       | A / ~        | G / H         | X / ~        | V / W         |
|               | Фактор-      | Факторгруппа  | Фактор-      | Фактор-       |
|               | множество    |               | пространство | пространство  |
|               |              |               |              |               |
| (склеивание)  | Классы       | Смежные       | Классы       | Классы        |
|               | эквивалентн. | классы        | эквивалентн. | вычетов       |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| дуальность    | 𝒫(A) ↔ 2^A   | G ↔ Ĝ         | Гомологии ↔  | V ↔ V*        |
|               |              | Группа ↔      | Когомологии  |               |
|               | Булеан ↔     | Хар-ры        |              | Сопряжённое   |
|               | Инд. функции |               |              | пространство  |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| базис         | Минимальная  | Порождающие   | База         | Базис Гамеля  |
|               | порождающая  | элементы      | топологии    | (lin. незав.) |
|               |              |               |              |               |
| (минимальное  |              |               | Минимальное  | Минимальное   |
| описание)     |              |               | покрытие     | множество     |
|               |              |               | откр. мн-в   | векторов      |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| ЯДРО          | f⁻¹({b})     | ker(φ) =      | f⁻¹({y})     | ker(T) =      |
|               |              | {g: φ(g)=e}   |              | {v: T(v)=0}   |
|               | Прообраз     |               |              |               |
|               | элемента     | То, что идёт  | Прообраз     | То, что       |
|               |              | в единицу     | точки        | убивается     |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| ОБРАЗ         | f(A)         | Im(φ) =       | f(X)         | Im(T) =       |
|               |              | {φ(g): g∈G}   |              | {T(v): v∈V}   |
|               | Множество    |               |              |               |
|               | значений     | Подгруппа в H | Подпр-во в Y | Подпр-во в W  |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+

Дополнительная таблица — базовые операции:

+------------+--------------+------------+-----------------------------+
| ОПЕРАЦИЯ   | АРНОСТЬ      | ПРИМЕРЫ    | ПРИМЕНЕНИЕ                  |
+------------+--------------+------------+-----------------------------+
|            |              |            |                             |
| Отрицание  | Унарная (1)  | ¬P, Aᶜ, -x | Дополнение, противополож.   |
|            |              |            |                             |
| Сложение   | Бинарная (2) | +, ∪, ∨    | Объединение, дизъюнкция     |
|            |              |            |                             |
| Умножение  | Бинарная (2) | ×, ∩, ∧    | Пересечение, конъюнкция     |
|            |              |            |                             |
| Композиция | Бинарная (2) | f∘g, AB    | Последовательное применение |
|            |              |            |                             |
| Применение | Бинарная (2) | f(x), T(v) | Функции, операторы          |
|            |              |            |                             |
+------------+--------------+------------+-----------------------------+

Философия таблицы аналогий:

  Один и тот же паттерн проявляется во всех областях математики.

  Если вы поняли "подструктуру" в множествах (A ⊆ B),
  вы автоматически понимаете подгруппу (H ≤ G),
  подпространство (U ⊆ X) и т.д.

  Учите по горизонтали (одно понятие во всех областях),
  а не по вертикали (все понятия одной области).

  Это принцип категорной математики: изучать общие паттерны,
  а не конкретные реализации.


Мы рассмотрели структуры на пространствах: алгебраические (группы, кольца),
топологические (близость), линейные (сложение, растяжение), дифференциальные
(гладкость, формы). Категории показали, как все эти структуры связаны.

Теперь — часть III: анализ. Это искусство измерения пространств.

Мы построили пространство и научились по нему перемещаться (группы), понимать
его форму (топология), работать с плоскими приближениями (линейная алгебра),
описывать кривизну (многообразия). Но как измерить то, что происходит?

Функция — это сканер, которым наблюдатель водит по пространству.

Температура T(x) — функция, которая каждой точке комнаты сопоставляет число.
Скорость v(x,t) — функция, дающая вектор в каждой точке и в каждый момент.
Функция — инструмент наблюдателя для получения числовых данных из пространства.

Анализ изучает, как эти функции меняются:
  • Производная — скорость изменения (локальный сканер)
  • Интеграл — накопленный эффект (глобальный сканер)
  • Предел — что происходит "на границе" измерений

В терминах двойственности: изучать пространство точек — то же, что изучать
пространство функций на нём (это глубокая теорема Гельфанда-Наймарка).


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                         ЧАСТЬ III: АНАЛИЗ ПРОСТРАНСТВ
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

В этой части наблюдатель впервые начинает вычислять. Всё, что раньше было
структурой (топология, группы, тензоры), теперь становится инструментом для
конкретных расчётов: пределов, производных, интегралов, рядов.

Почему после многообразий — пределы? В Части II мы смотрели на пространства
глобально: топология, кривизна, связность. Теперь нам нужен микроскоп —
инструмент для изучения структуры пространства вблизи точки. Анализ даёт
этот микроскоп: производная показывает локальное поведение, интеграл собирает
локальные данные в глобальный результат.

Но помните: вычисление зависит от выбора координат (наблюдателя).
Результат — нет. Интеграл по контуру не зависит от параметризации.
Производная по направлению — геометрический объект.

===============================================================================
          Анализ — от конкретного пространства к общим структурам
===============================================================================

-------------------------------------------------------------------------------
Математический анализ — исчисление бесконечно малых
-------------------------------------------------------------------------------

 Анализ как взгляд на пространство ℝⁿ


 Матанализ — это изучение конкретного пространства ℝⁿ со всей его
 структурой: метрикой, линейностью, порядком.

 Мы уже видели общие структуры:
   • Топология: что значит "близко" вообще
   • Метрика: что значит "расстояние"
   • Линейность: что значит "сложить" и "умножить на число"

 Теперь смотрим, как всё это работает вместе на ℝⁿ:
   • Предел = топология (сходимость в метрике)
   • Производная = линейное приближение (лучшая линейная аппроксимация)
   • Интеграл = мера (обобщённый "размер")

 Матанализ — не отдельный остров. Это пример того, как общие идеи
 воплощаются в конкретном пространстве.

-------------------------------------------------------------------------------
 Историческая справка
-------------------------------------------------------------------------------

 Математический анализ изучает непрерывные изменения:
   • Как функция меняется (производная)
   • Как накапливается изменение (интеграл)
   • Что происходит "в пределе" (предел)

 Это язык физики, инженерии, экономики — всего, где есть изменение.

   XVII век: Ньютон и Лейбниц независимо создали анализ
   XIX век: Коши, Вейерштрасс сделали его строгим (ε-δ определения)
   XX век: обобщение на многообразия и бесконечномерные пространства


===============================================================================
Предел — фундаментальное понятие
===============================================================================

Ниже — определения пределов для метрических пространств (через |x−a|).
Общее топологическое определение (через окрестности).
Эти определения эквивалентны: ε-окрестность — частный случай окрестности.

 Определения пределов
+-----------------------+-----------------------------------------------------+
| ТИП                   | ФОРМАЛЬНОЕ ОПРЕДЕЛЕНИЕ                              |
+-----------------------+-----------------------------------------------------+
| Предел                | lim xₙ = a означает:                                |
| последовательности    | ∀ε>0 ∃N∈ℕ: ∀n>N ⇒ |xₙ−a| < ε                      |
|                       |                                                     |
|                       | Смысл: после номера N все члены в ε-окрестности a  |
+-----------------------+-----------------------------------------------------+
| Предел функции        | lim f(x) = L означает:                              |
| в точке               | x→a                                                 |
|                       | ∀ε>0 ∃δ>0: 0<|x−a|<δ ⇒ |f(x)−L| < ε               |
|                       |                                                     |
|                       | Смысл: f(x) близко к L, когда x близко к a         |
+-----------------------+-----------------------------------------------------+
| Предел на             | lim f(x) = L означает:                              |
| бесконечности         | x→∞                                                 |
|                       | ∀ε>0 ∃M: x>M ⇒ |f(x)−L| < ε                        |
+-----------------------+-----------------------------------------------------+
| Бесконечный           | lim f(x) = ∞ означает:                              |
| предел                | x→a                                                 |
|                       | ∀M>0 ∃δ>0: 0<|x−a|<δ ⇒ f(x) > M                    |
+-----------------------+-----------------------------------------------------+

 Примеры пределов последовательностей
+--------------------+-----------+-----------------------------+
| ПОСЛЕДОВАТЕЛЬНОСТЬ | ПРЕДЕЛ    | ОБЪЯСНЕНИЕ                  |
+--------------------+-----------+-----------------------------+
| xₙ = 1/n           | 0         | 1, 0.5, 0.33, 0.25, ... → 0 |
+--------------------+-----------+-----------------------------+
| xₙ = (n+1)/n       | 1         | 2, 1.5, 1.33, ... → 1       |
+--------------------+-----------+-----------------------------+
| xₙ = (1+1/n)ⁿ      | e ≈ 2.718 | Определение числа e         |
+--------------------+-----------+-----------------------------+
| xₙ = n             | +∞        | Неограниченно растёт        |
+--------------------+-----------+-----------------------------+
| xₙ = (−1)ⁿ         | не сущ.   | Прыгает: 1, −1, 1, −1, ...  |
+--------------------+-----------+-----------------------------+
| xₙ = sin(n)        | не сущ.   | Хаотично колеблется         |
+--------------------+-----------+-----------------------------+

 Важнейшие пределы функций
+-----------------------+----------+-----------------------------+
| ПРЕДЕЛ                | ЗНАЧЕНИЕ | ПРИМЕНЕНИЕ                  |
+-----------------------+----------+-----------------------------+
| lim sin(x)/x          | 1        | Первый замечательный предел |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (1+x)^(1/x)       | e        | Второй замечательный предел |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (eˣ−1)/x          | 1        | Производная eˣ в нуле       |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim ln(1+x)/x         | 1        | Производная ln в единице    |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (1−cos x)/x²      | 1/2      | Разложение косинуса         |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim xⁿ/eˣ             | 0        | eˣ растёт быстрее степени   |
| x→+∞                  |          |                             |
+-----------------------+----------+-----------------------------+
| lim ln(x)/xᵅ (α>0) | 0        | Степень растёт быстрее ln   |
| x→+∞                  |          |                             |
+-----------------------+----------+-----------------------------+

 Правила вычисления пределов
+--------------------------+--------------------------------------------+
| ПРАВИЛО                  | ФОРМУЛА                                    |
+--------------------------+--------------------------------------------+
| Сумма                    | lim(f+g) = lim f + lim g                   |
+--------------------------+--------------------------------------------+
| Произведение             | lim(f·g) = lim f · lim g                   |
+--------------------------+--------------------------------------------+
| Частное                  | lim(f/g) = lim f / lim g  (если lim g ≠ 0) |
+--------------------------+--------------------------------------------+
| Константа                | lim(c·f) = c · lim f                       |
+--------------------------+--------------------------------------------+
| Композиция               | lim f(g(x)) = f(lim g(x)) если f непр.     |
+--------------------------+--------------------------------------------+
| Сжатие (две полицейские) | g≤f≤h, lim g=lim h=L ⇒ lim f=L             |
+--------------------------+--------------------------------------------+

 Неопределённости — Когда правила не работают
+-----+------------------+------------------------------+
| ТИП | ПРИМЕР           | МЕТОД РАСКРЫТИЯ              |
+-----+------------------+------------------------------+
| 0/0 | sin(x)/x при x→0 | Лопиталь, разложение, замена |
+-----+------------------+------------------------------+
| ∞/∞ | x²/eˣ при x→∞    | Лопиталь                     |
+-----+------------------+------------------------------+
| 0·∞ | x·ln(x) при x→0⁺ | Привести к 0/0 или ∞/∞       |
+-----+------------------+------------------------------+
| ∞−∞ | x−√(x²+1)        | Домножить на сопряжённое     |
+-----+------------------+------------------------------+
| 1^∞ | (1+1/x)ˣ при x→∞ | Прологарифмировать           |
+-----+------------------+------------------------------+
| 0⁰  | xˣ при x→0⁺      | Прологарифмировать           |
+-----+------------------+------------------------------+
| ∞⁰  | x^(1/x) при x→∞  | Прологарифмировать           |
+-----+------------------+------------------------------+

 Важно: Почему деление на 0 не определено (и это не бесконечность)


 Многие думают: "1/0 = ∞, ведь lim(1/x) при x→0⁺ равен +∞"
 Это ошибка. Предел и значение функции — разные вещи.

-------------------------------------------------------------------------------
 Почему 1/0 не определено — алгебраический аргумент
-------------------------------------------------------------------------------

   Деление — это обратная операция к умножению:

     a/b = c   означает   b·c = a

   Пусть 1/0 = c. Тогда по определению: 0·c = 1.
   Но 0·c = 0 для любого c (аксиома поля).
   Получаем 0 = 1 — противоречие.

   Пусть 0/0 = c. Тогда 0·c = 0 — верно для любого c.
   Какое c выбрать? 0? 1? 1000? Нет единственного ответа.

-------------------------------------------------------------------------------
 Почему предел ≠ значение
-------------------------------------------------------------------------------

   lim f(x) = L  означает: "f(x) становится сколь угодно близко к L"
   x→a

   Это говорит о поведении около точки a, но не о значении в точке a.

   Примеры:
   • lim (x²−1)/(x−1) = 2, но (x²−1)/(x−1) при x=1 не определено
     x→1
   • lim 1/x = +∞, но 1/0 не определено (даже не "равно +∞")
     x→0⁺

-------------------------------------------------------------------------------
 Дополнительная проблема: разные пределы с разных сторон
-------------------------------------------------------------------------------

   lim 1/x = +∞     (справа)
   x→0⁺
   lim 1/x = −∞     (слева)
   x→0⁻

   Какую "бесконечность" выбрать? +∞ или −∞?
   Если бы 1/0 = ∞, то мы бы получили +∞ = −∞, что абсурд.

-------------------------------------------------------------------------------
 Итог
-------------------------------------------------------------------------------

   • 1/0 — не определено (не существует числа c, такого что 0·c = 1)
   • 0/0 — неопределённость (есть бесконечно много решений 0·c = 0)
   • lim 1/x = ±∞ — это про поведение, а не про значение
   • В стандартной арифметике ∞ — не число, а символ для предела

   (В расширенных числовых системах ∞ можно ввести как элемент,
    но тогда теряются некоторые привычные свойства арифметики.
    Пример: на сфере Римана ℂ̂ = ℂ ∪ {∞} операция 1/0 = ∞ корректна,
    но зато 0·∞ и ∞−∞ не определены. См. про комплексный анализ)


===============================================================================
Непрерывность — отсутствие разрывов
===============================================================================

 Определения непрерывности
+-----------------------+-----------------------------------------------------+
| ФОРМУЛИРОВКА          | ОПРЕДЕЛЕНИЕ                                         |
+-----------------------+-----------------------------------------------------+
| Через предел          | f непрерывна в a ⟺ lim f(x) = f(a)                 |
|                       |                    x→a                              |
+-----------------------+-----------------------------------------------------+
| ε-δ определение       | ∀ε>0 ∃δ>0: |x−a|<δ ⇒ |f(x)−f(a)|<ε                |
+-----------------------+-----------------------------------------------------+
| Через последоват.     | xₙ→a ⇒ f(xₙ)→f(a) для любой (xₙ)                   |
+-----------------------+-----------------------------------------------------+
| Топологическое        | Прообраз открытого множества открыт                 |
| определение           | f⁻¹(U) открыто для любого открытого U              |
+-----------------------+-----------------------------------------------------+

 Три условия непрерывности в точке a
+---+---------------------+----------------------------------+
| № | УСЛОВИЕ             | ЧТО НАРУШЕНО (ЕСЛИ НЕ ВЫПОЛНЕНО) |
+---+---------------------+----------------------------------+
| 1 | f(a) определено     | Точка выколота                   |
+---+---------------------+----------------------------------+
| 2 | lim f(x) существует | Скачок или колебание             |
|   | x→a                 |                                  |
+---+---------------------+----------------------------------+
| 3 | lim f(x) = f(a)     | Устранимый разрыв                |
|   | x→a                 |                                  |
+---+---------------------+----------------------------------+

 Типы разрывов
+-----------------+---------------------+---------------------------+
| ТИП             | ПРИЗНАК             | ПРИМЕР                    |
+-----------------+---------------------+---------------------------+
| Устранимый      | lim существует,     | f(x)=(x²−1)/(x−1) при x=1 |
|                 | но f(a)≠lim или     | lim=2, но f(1) не опр.    |
|                 | f(a) не определено  |                           |
+-----------------+---------------------+---------------------------+
| Скачок (I рода) | Односторонние       | sign(x) при x=0           |
|                 | пределы существуют, | lim₋ = −1, lim₊ = +1      |
|                 | но не равны         |                           |
+-----------------+---------------------+---------------------------+
| Существенный    | Хотя бы один        | sin(1/x) при x=0          |
| (II рода)       | односторонний       | Бесконечные колебания     |
|                 | предел не сущ.      |                           |
+-----------------+---------------------+---------------------------+

 Свойства непрерывных функций
+-------------------------------+---------------------------------------------+
| ОПЕРАЦИЯ                      | РЕЗУЛЬТАТ                                   |
+-------------------------------+---------------------------------------------+
| f, g непрерывны в a           | f+g, f−g, f·g непрерывны в a               |
+-------------------------------+---------------------------------------------+
| f, g непрерывны, g(a)≠0       | f/g непрерывна в a                         |
+-------------------------------+---------------------------------------------+
| f непр. в a, g непр. в f(a)   | g∘f непрерывна в a                         |
+-------------------------------+---------------------------------------------+
| |f| при f непрерывной         | |f| непрерывна                             |
+-------------------------------+---------------------------------------------+
| max(f,g), min(f,g)            | Непрерывны, если f и g непрерывны          |
+-------------------------------+---------------------------------------------+

 Фундаментальные теоремы
+----------------------+-------------------------------------------------+
| ТЕОРЕМА              | ФОРМУЛИРОВКА и СЛЕДСТВИЕ                        |
+----------------------+-------------------------------------------------+
| Вейерштрасса         | f непр. на [a,b] ⇒ f достигает max и min        |
| (об экстремумах)     |                                                 |
|                      | Следствие: ∃c,d∈[a,b]: f(c)≤f(x)≤f(d) ∀x        |
+----------------------+-------------------------------------------------+
| О промежуточном      | f непр. на [a,b], f(a)<y<f(b)             |
| значении (Больцано)  | ⇒ ∃c∈(a,b): f(c)=y                              |
|                      |                                                 |
|                      | "Непрерывная функция не перепрыгивает значения" |
+----------------------+-------------------------------------------------+
| О нуле функции       | f непр., f(a)<0<f(b) ⇒ ∃c: f(c)=0         |
| (следствие)          |                                                 |
|                      | Применение: доказательство существования корней |
+----------------------+-------------------------------------------------+
| Кантора (равномерная | f непр. на [a,b] ⇒ f равномерно непрерывна      |
| непрерывность)       |                                                 |
|                      | δ зависит только от ε, не от точки              |
+----------------------+-------------------------------------------------+

 Стандартные непрерывные функции
+---------------------------------+-------------------------------------------+
| ФУНКЦИЯ                         | ОБЛАСТЬ НЕПРЕРЫВНОСТИ                     |
+---------------------------------+-------------------------------------------+
| Многочлен p(x)                  | ℝ (везде)                                 |
+---------------------------------+-------------------------------------------+
| Рациональная p(x)/q(x)          | ℝ \ {корни q(x)}                          |
+---------------------------------+-------------------------------------------+
| √x                              | [0, +∞)                                   |
+---------------------------------+-------------------------------------------+
| sin x, cos x                    | ℝ                                         |
+---------------------------------+-------------------------------------------+
| eˣ                              | ℝ                                         |
+---------------------------------+-------------------------------------------+
| ln x                            | (0, +∞)                                   |
+---------------------------------+-------------------------------------------+
| |x|                             | ℝ (но не дифференцируема в 0!)            |
+---------------------------------+-------------------------------------------+

===============================================================================
Производная — мгновенная скорость изменения
===============================================================================

 Визуализация: секущая → касательная


         y
         |              ╱
         |           ╱
         |        ╱     • (a+h, f(a+h))      секущая (наклон = Δf/Δx)
         |     •╱
         |   ╱
         | •---------------------          касательная (наклон = f'(a))
         |  (a, f(a))
         |
         |
         +----------------------------- x
               a    a+h

   При h → 0 секущая "поворачивается" и становится касательной.
   Наклон касательной = производная = lim[h→0] (f(a+h)−f(a))/h


 Определение производной
+-------------------------------+------------------------------------------+
| ФОРМУЛА                       | ИНТЕРПРЕТАЦИЯ                            |
+-------------------------------+------------------------------------------+
| f'(a) = lim (f(a+h)−f(a))/h   | Предел отношения приращений              |
| h→0                           |                                          |
+-------------------------------+------------------------------------------+
| f'(a) = lim (f(x)−f(a))/(x−a) | Эквивалентная форма                      |
| x→a                           |                                          |
+-------------------------------+------------------------------------------+
| ГЕОМЕТРИЧЕСКИ                 | Наклон касательной к графику в точке a   |
+-------------------------------+------------------------------------------+
| ФИЗИЧЕСКИ                     | Мгновенная скорость (если f = положение) |
+-------------------------------+------------------------------------------+
| АНАЛИТИЧЕСКИ                  | Лучшее линейное приближение:             |
|                               | f(a+h) ≈ f(a) + f'(a)·h                  |
+-------------------------------+------------------------------------------+

 Обозначения производной
+-------------+-----------------------------------------------------+
| ОБОЗНАЧЕНИЕ | КОГДА ИСПОЛЬЗУЕТСЯ                                  |
+-------------+-----------------------------------------------------+
| f'(x)       | Общее обозначение (Лагранж)                         |
+-------------+-----------------------------------------------------+
| df/dx       | Подчёркивает переменную дифференцирования (Лейбниц) |
+-------------+-----------------------------------------------------+
| Df          | Операторная запись                                  |
+-------------+-----------------------------------------------------+
| ḟ (точка)   | Производная по времени (физика)                     |
+-------------+-----------------------------------------------------+
| f'', f'''   | Вторая, третья производные                          |
| f⁽ⁿ⁾        | n-я производная                                     |
+-------------+-----------------------------------------------------+

 Связь дифференцируемости и непрерывности
+---------------------------------+-------------------------------------------+
| УТВЕРЖДЕНИЕ                     | ВЕРНО?                                    |
+---------------------------------+-------------------------------------------+
| Дифференцируема ⇒ Непрерывна   | ДА (всегда)                               |
+---------------------------------+-------------------------------------------+
| Непрерывна ⇒ Дифференцируема   | НЕТ. Контрпример: f(x)=|x| в точке 0     |
+---------------------------------+-------------------------------------------+
| Непрерывна, но нигде не дифф.   | Существует. (функция Вейерштрасса)        |
+---------------------------------+-------------------------------------------+

 Таблица производных
+---------------+---------------------+
| ФУНКЦИЯ f(x)  | ПРОИЗВОДНАЯ f'(x)   |
+---------------+---------------------+
| c (константа) | 0                   |
+---------------+---------------------+
| x             | 1                   |
+---------------+---------------------+
| xⁿ            | n·xⁿ⁻¹              |
+---------------+---------------------+
| eˣ            | eˣ                  |
+---------------+---------------------+
| aˣ            | aˣ · ln(a)          |
+---------------+---------------------+
| ln(x)         | 1/x                 |
+---------------+---------------------+
| logₐ(x)       | 1/(x·ln(a))         |
+---------------+---------------------+
| sin(x)        | cos(x)              |
+---------------+---------------------+
| cos(x)        | −sin(x)             |
+---------------+---------------------+
| tan(x)        | 1/cos²(x) = sec²(x) |
+---------------+---------------------+
| arcsin(x)     | 1/√(1−x²)           |
+---------------+---------------------+
| arccos(x)     | −1/√(1−x²)          |
+---------------+---------------------+
| arctan(x)     | 1/(1+x²)            |
+---------------+---------------------+
| √x            | 1/(2√x)             |
+---------------+---------------------+

 Правила дифференцирования
+------------------------+-----------------------------------+
| ПРАВИЛО                | ФОРМУЛА                           |
+------------------------+-----------------------------------+
| Линейность             | (αf + βg)' = αf' + βg'            |
+------------------------+-----------------------------------+
| Произведение (Лейбниц) | (f·g)' = f'·g + f·g'              |
+------------------------+-----------------------------------+
| Частное                | (f/g)' = (f'·g − f·g')/g²         |
+------------------------+-----------------------------------+
| Цепное правило         | (f(g(x)))' = f'(g(x))·g'(x)       |
| (композиция)           |                                   |
+------------------------+-----------------------------------+
| Обратная функция       | (f⁻¹)'(y) = 1/f'(x), где y = f(x) |
+------------------------+-----------------------------------+

 Примеры применения цепного правила
+----------+---------------------------+
| ФУНКЦИЯ  | ПРОИЗВОДНАЯ               |
+----------+---------------------------+
| sin(x²)  | cos(x²)·2x = 2x·cos(x²)   |
+----------+---------------------------+
| e^(3x)   | e^(3x)·3 = 3e^(3x)        |
+----------+---------------------------+
| ln(x²+1) | 2x/(x²+1)                 |
+----------+---------------------------+
| √(1−x²)  | −x/√(1−x²)                |
+----------+---------------------------+
| (x²+1)¹⁰ | 10(x²+1)⁹·2x = 20x(x²+1)⁹ |
+----------+---------------------------+

 Геометрический и физический смысл


 +--------------+----------------------------------+
 | КОНТЕКСТ     | СМЫСЛ ПРОИЗВОДНОЙ                |
 +--------------+----------------------------------+
 | Геометрия    | Наклон касательной               |
 | Движение     | Скорость (v = dx/dt)             |
 | Ускорение    | Вторая производная (a = d²x/dt²) |
 | Экономика    | Предельная прибыль/затраты       |
 | Теплотехника | Тепловой поток (q = −k·dT/dx)    |
 | Оптимизация  | f'(a) = 0 — кандидат в экстремум |
 +--------------+----------------------------------+

 Производная как линейное приближение:

   f(a + h) ≈ f(a) + f'(a)·h    (для малых h)

   Это касательная. Вблизи точки a функция ведёт себя почти линейно.


 Матрица Якоби — многомерная производная


 Для функции f: ℝⁿ → ℝᵐ матрица Якоби — это матрица частных производных:

       ⎛ ∂f₁/∂x₁  ∂f₁/∂x₂  ⋯  ∂f₁/∂xₙ ⎞
   J = ⎜ ∂f₂/∂x₁  ∂f₂/∂x₂  ⋯  ∂f₂/∂xₙ ⎟
       ⎜   ⋮         ⋮      ⋱      ⋮     ⎟
       ⎝ ∂fₘ/∂x₁  ∂fₘ/∂x₂  ⋯  ∂fₘ/∂xₙ ⎠

-------------------------------------------------------------------------------
 Геометрический смысл: локальная замена координат
-------------------------------------------------------------------------------

 Вспомним: f'(a) — это наклон касательной, т.е. линейное приближение.

 В многомерном случае: J(a) — это линейное отображение, которое
 приближает f около точки a:

   f(a + h) ≈ f(a) + J(a)·h    (для малых h)

 Это значит:
   Около точки a преобразование f ведёт себя как линейная замена координат.

   Нелинейное f: линейное приближение j:

       ╭----╮                            ╭----╮
      ╱      ╲                          ╱      ╲
     |   ●    |  --→  ╭------╮         |   ●    |  --→  ╭--------╮
     |   a    |       |криво |         |   a    |       |линейно |
      ╲      ╱        ╰------╯          ╲      ╱        ╰--------╯
       ╰----╯                            ╰----╯

   Якобиан говорит: "локально, в малом масштабе, f — это линейное преобр."

-------------------------------------------------------------------------------
 Определитель якобиана = коэффициент растяжения объёма
-------------------------------------------------------------------------------

   |det J| — это во сколько раз преобразование f растягивает объём

   Пример: Полярные координаты (r, θ) → (x, y) = (r cos θ, r sin θ)

       ⎛ ∂x/∂r  ∂x/∂θ ⎞   ⎛ cos θ   −r sin θ ⎞
   J = ⎜               ⎟ = ⎜                  ⎟
       ⎝ ∂y/∂r  ∂y/∂θ ⎠   ⎝ sin θ    r cos θ ⎠

   det J = r·cos²θ + r·sin²θ = r

   Это значит: площадь "элементика" dr·dθ в полярных координатах
   соответствует площади r·dr·dθ в декартовых.

 Замена переменных в интеграле:

   ∫∫ f(x,y) dxdy = ∫∫ f(x(u,v), y(u,v)) · |det J| dudv

   Якобиан — "коэффициент пересчёта площади" при замене координат.

-------------------------------------------------------------------------------
 Теорема об обратной функции
-------------------------------------------------------------------------------

 Если det J(a) ≠ 0, то f локально обратима около a.

 Интуиция: Если якобиан не вырожден (не "сплющивает" пространство),
 то преобразование можно обратить в малой окрестности.

 Якобиан обратного отображения: J(f⁻¹) = J(f)⁻¹

 Практика: Если хотите проверить, можно ли "развернуть" преобразование
 координат — посчитайте определитель якобиана. Если ≠ 0 — можно.

-------------------------------------------------------------------------------
 Теорема о неявной функции
-------------------------------------------------------------------------------

 Дано: F(x, y) = 0 определяет y как функцию от x.

 Вопрос: Когда можно выразить y = y(x)?

 Ответ: Если ∂F/∂y ≠ 0, то локально y = y(x) существует и

        dy       ∂F/∂x
        -- = − ---------
        dx       ∂F/∂y

 Пример: Окружность x² + y² = 1
   F(x,y) = x² + y² − 1 = 0
   ∂F/∂y = 2y ≠ 0  (кроме y = 0, т.е. точек (±1, 0))
   dy/dx = −2x/(2y) = −x/y

   В точках (±1, 0) касательная вертикальна — y не выражается через x!

 Интуиция: Кривая F = 0 локально — график функции, если не вертикальна.


 Кратные интегралы и теорема Фубини


 Двойной интеграл: ∬_D f(x,y) dA — «объём под поверхностью z = f(x,y)»

 Теорема Фубини: Если f непрерывна на прямоугольнике [a,b]×[c,d]:

   ∬_D f(x,y) dA = ∫ₐᵇ (∫_c^d f(x,y) dy) dx = ∫_c^d (∫ₐᵇ f(x,y) dx) dy

   Порядок интегрирования можно менять.

 Для более сложных областей: пределы внутреннего интеграла зависят от
 внешней переменной.

 Пример: ∬_D xy dA, где D: 0 ≤ x ≤ 1, 0 ≤ y ≤ x

   = ∫₀¹ (∫₀ˣ xy dy) dx = ∫₀¹ x·[y²/2]₀ˣ dx = ∫₀¹ x³/2 dx = 1/8

 Замена переменных в кратных интегралах:

   ∬_D f(x,y) dxdy = ∬_D' f(x(u,v), y(u,v)) · |det J| dudv

 Полярные:  dxdy = r dr dθ
 Цилиндр.:  dxdydz = r dr dθ dz
 Сферич.:   dxdydz = r² sin φ dr dφ dθ


 Материальная (конвективная) производная — ключ к газодинамике


 Проблема: Есть поле температуры T(x, y, z, t). Как меняется температура
 Частицы жидкости, которая движется со скоростью v?

 +-------------------------------------------------------------------------+
 |                                                                         |
 |     t = 0           t = dt                                              |
 |                                                                         |
 |      ●------------→ ●                                                   |
 |   частица        частица                                                |
 |   в точке x     в точке x + v·dt                                     |
 |                                                                         |
 |   T(x, 0)        T(x + v·dt, dt)                                      |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Материальная производная:

   DT     ∂T                    ∂T       ∂T       ∂T
   -- = ---- + (v·∇)T = ---- + vₓ ---- + vᵧ ---- + v_z ----
   Dt     ∂t                    ∂t       ∂x       ∂y       ∂z

 +--------+---------------------------------------------------+
 | ЧЛЕН   | ФИЗИЧЕСКИЙ СМЫСЛ                                  |
 +--------+---------------------------------------------------+
 | ∂T/∂t  | Локальное изменение: поле меняется в данной точке |
 | (v·∇)T | Конвективное: частица переносится в другую точку  |
 +--------+---------------------------------------------------+

 Пример: Река с неоднородной температурой

   Стоишь на берегу, опустил термометр: T меняется (∂T/∂t ≠ 0) — это
   локальное изменение.

   Плывём в лодке: даже если ∂T/∂t = 0, температура вокруг нас меняется,
   потому что мы перемещаемся в области с другой T — это конвекция.

 Уравнение Навье-Стокса использует именно D/Dt:

   ρ Dv/Dt = −∇p + μ∇²v + ρg

   Левая часть — ускорение частицы (а не точки пространства)


===============================================================================
Интеграл — накопление изменения
===============================================================================

 Интуиция: площадь под графиком


 Определённый интеграл ∫ₐᵇ f(x)dx — это площадь под графиком f
 от x = a до x = b (с учётом знака: ниже оси — отрицательная).

           |
        f  |    ╱╲
           |   ╱██╲
           |  ╱████╲
           | ╱██████╲         ← заштрихованная площадь
         --+-------------
           a         b

 Физический смысл:
   • Если f(t) = скорость, то ∫ₐᵇ f(t)dt = пройденный путь
   • Если f(t) = мощность, то ∫ₐᵇ f(t)dt = работа
   • Если f(x) = плотность, то ∫ₐᵇ f(x)dx = масса


 Определение интеграла Римана


 Идея: Приближаем площадь суммой прямоугольников, затем устремляем
       ширину прямоугольников к нулю.

   Разбиение: a = x₀ < x₁ < x₂ < ... < xₙ = b
   Ширина: Δxᵢ = xᵢ − xᵢ₋₁
   Выбираем точку: ξᵢ ∈ [xᵢ₋₁, xᵢ]

   Интегральная сумма: Sₙ = Σᵢ f(ξᵢ)·Δxᵢ

 +---------------------------------------------------------------------+
 |                                                                     |
 | ∫ₐᵇ f(x)dx = lim Σᵢ f(ξᵢ)·Δxᵢ                                       |
 | max(Δxᵢ)→0                                                          |
 |                                                                     |
 | (предел должен существовать и не зависеть от выбора разбиения и ξᵢ) |
 |                                                                     |
 +---------------------------------------------------------------------+

 Функция интегрируема по Риману, если этот предел существует.

 Достаточное условие: Непрерывная на [a,b] ⇒ интегрируема.


 Конкретный пример: ∫₀¹ x dx


 Геометрически: площадь треугольника с вершинами (0,0), (1,0), (1,1).
 Ответ: ½ · 1 · 1 = 1/2

 Через интегральные суммы:
   Разбиваем [0,1] на n равных частей: Δx = 1/n
   Берём правые концы: ξᵢ = i/n

   Sₙ = Σᵢ₌₁ⁿ (i/n)·(1/n) = (1/n²) Σᵢ₌₁ⁿ i = (1/n²)·n(n+1)/2
      = (n+1)/(2n) = 1/2 + 1/(2n)

   lim Sₙ = lim (1/2 + 1/(2n)) = 1/2  ✓
   n→∞     n→∞


 Свойства интеграла


 1. Линейность:
    ∫ₐᵇ (αf + βg)dx = α∫ₐᵇ f dx + β∫ₐᵇ g dx

 2. аддитивность по отрезку:
    ∫ₐᵇ f dx + ∫ᵇᶜ f dx = ∫ₐᶜ f dx

 3. Монотонность:
    f(x) ≤ g(x) на [a,b]  ⇒  ∫ₐᵇ f dx ≤ ∫ₐᵇ g dx

 4. Оценка:
    m ≤ f(x) ≤ M на [a,b]  ⇒  m(b−a) ≤ ∫ₐᵇ f dx ≤ M(b−a)

 5. теорема о среднем:
    Если f непрерывна на [a,b], то ∃c ∈ (a,b): ∫ₐᵇ f dx = f(c)·(b−a)


===============================================================================
Основная теорема анализа — связь производной и интеграла
===============================================================================

 Теорема Ньютона-Лейбница


 +-------------------------------------------------------------------------+
 |                                                                         |
 |   Если F'(x) = f(x), то:                                                |
 |                                                                         |
 |              ∫ₐᵇ f(x)dx = F(b) − F(a)                                   |
 |                                                                         |
 |   Обозначение: F(x)|ₐᵇ = F(b) − F(a)                                    |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Смысл: Чтобы вычислить интеграл, достаточно найти первообразную F
        (функцию, производная которой равна f) и взять разность.

 Пример:
   ∫₀² x² dx = ?

   F(x) = x³/3  (проверка: (x³/3)' = 3x²/3 = x² ✓)

   ∫₀² x² dx = F(2) − F(0) = 8/3 − 0 = 8/3


 Вторая часть основной теоремы


 Пусть f непрерывна. Определим:

   F(x) = ∫ₐˣ f(t)dt   ("интеграл с переменным верхним пределом")

 +------------------------+
 |                        |
 | d/dx ∫ₐˣ f(t)dt = f(x) |
 |                        |
 +------------------------+

 Смысл: Производная интеграла = подынтегральная функция.
        Интегрирование и дифференцирование — обратные операции.

   d/dx и ∫dx — как возведение в степень и логарифм, или + и −.
   Одна "отменяет" другую.


 Таблица первообразных (неопределённых интегралов)
+---------------------------+-------------------------------------------------+
| ФУНКЦИЯ f(x)              | ПЕРВООБРАЗНАЯ ∫f(x)dx                           |
+---------------------------+-------------------------------------------------+
| xⁿ (n ≠ −1)               | xⁿ⁺¹/(n+1) + C                                  |
| 1/x                       | ln|x| + C                                       |
| eˣ                        | eˣ + C                                          |
| aˣ                        | aˣ/ln(a) + C                                    |
| sin(x)                    | −cos(x) + C                                     |
| cos(x)                    | sin(x) + C                                      |
| 1/cos²(x)                 | tan(x) + C                                      |
| 1/sin²(x)                 | −cot(x) + C                                     |
| 1/(1+x²)                  | arctan(x) + C                                   |
| 1/√(1−x²)                 | arcsin(x) + C                                   |
| 1/(x²+a²)                 | (1/a)arctan(x/a) + C                            |
| 1/√(x²±a²)                | ln|x + √(x²±a²)| + C                            |
+---------------------------+-------------------------------------------------+

 Методы интегрирования


 1. замена переменной (подстановка):
    ∫f(g(x))g'(x)dx = ∫f(u)du,  где u = g(x)

    Пример: ∫2x·eˣ² dx = ∫eᵘ du = eᵘ + C = eˣ² + C  (u = x²)

 2. интегрирование по частям:
    ∫u dv = uv − ∫v du

    Пример: ∫x·eˣ dx
    u = x, dv = eˣdx ⇒ du = dx, v = eˣ
    = x·eˣ − ∫eˣ dx = x·eˣ − eˣ + C = eˣ(x−1) + C

 3. разложение на простые дроби:
    Для рациональных функций P(x)/Q(x)

 4. тригонометрические подстановки:
    √(a²−x²): x = a·sin(θ)
    √(a²+x²): x = a·tan(θ)
    √(x²−a²): x = a·sec(θ)


 Пример для теплофизики: цикл карно как контурный интеграл


 Работа газа за цикл = ∮ P dV = площадь внутри цикла на P-V диаграмме

       P
       |     1
       |    ╱╲  изотерма T₁ (нагреватель)
       |   ╱  ╲
       |  ╱    ╲ 2
       | | работа|  адиабата
       | |  W>0  |
       |  ╲    ╱ 3
       |   ╲  ╱
       |    ╲╱  изотерма T₂ (холодильник)
       |     4
       +------------------ V

 Почему ∮ P dV ≠ 0?
   Если бы P = P(V) была функцией только V, то ∮ P dV = 0 всегда.
   Но P = P(V, T) — зависит и от T.
   На верхней изотерме давление выше при том же V → работа положительна.

 Кпд цикла карно:

   η = W/Q₁ = (Q₁ - Q₂)/Q₁ = 1 - T₂/T₁

   Это максимальный кпд для любой машины между t₁ и t₂.
   (Следует из 2-го закона термодинамики)

 Связь с энтропией:
   Для обратимого процесса: ∮ dQ/T = 0
   Это значит: ∮ dS = 0 (энтропия — функция состояния)
   Математически: dS — точный дифференциал, а dQ — нет.

 Мораль: Криволинейный интеграл ∮ = 0 только для точного дифференциала.
         dQ не точный → можно извлекать работу. dS точный → возвращается.


===============================================================================
Приложения анализа
===============================================================================

 Приложения производных


 1. нахождение экстремумов:
    f'(x) = 0 — необходимое условие локального экстремума
    f''(x) < 0 ⇒ локальный максимум
    f''(x) > 0 ⇒ локальный минимум

 2. исследование функции:
    f' > 0: возрастание
    f' < 0: убывание
    f'' > 0: выпуклость вниз (∪)
    f'' < 0: выпуклость вверх (∩), вогнутость

 3. правило Лопиталя (для неопределённостей 0/0 или ∞/∞):
    lim f(x)/g(x) = lim f'(x)/g'(x)  (если правый предел существует)
    x→a           x→a

 4. ряд Тейлора (приближение функции многочленом):
    f(x) = f(a) + f'(a)(x−a) + f''(a)(x−a)²/2! + f'''(a)(x−a)³/3! + ...

    Справочная таблица разложений (a = 0, ряды Маклорена):

    +---------------------+---------------------------------------------+----------+
    | ФУНКЦИЯ             | РАЗЛОЖЕНИЕ                                  | РАДИУС R |
    +---------------------+---------------------------------------------+----------+
    | eˣ                  | 1 + x + x²/2! + x³/3! + ...                | ∞        |
    | sin x               | x − x³/3! + x⁵/5! − x⁷/7! + ...           | ∞        |
    | cos x               | 1 − x²/2! + x⁴/4! − x⁶/6! + ...           | ∞        |
    | sh x                | x + x³/3! + x⁵/5! + x⁷/7! + ...           | ∞        |
    | ch x                | 1 + x²/2! + x⁴/4! + x⁶/6! + ...           | ∞        |
    +---------------------+---------------------------------------------+----------+
    | 1/(1−x)             | 1 + x + x² + x³ + ...  (геометрический)    | 1        |
    | ln(1+x)             | x − x²/2 + x³/3 − x⁴/4 + ...              | 1        |
    | arctan x             | x − x³/3 + x⁵/5 − x⁷/7 + ...              | 1        |
    +---------------------+---------------------------------------------+----------+
    | (1+x)^α             | 1 + αx + α(α−1)x²/2! + ...  (бином)       | 1        |
    | Частные случаи:     |                                             |          |
    |   √(1+x)  (α=½)    | 1 + x/2 − x²/8 + x³/16 − ...              | 1        |
    |   1/(1+x)  (α=−1)  | 1 − x + x² − x³ + ...                      | 1        |
    |   1/(1+x)² (α=−2)  | 1 − 2x + 3x² − 4x³ + ...                   | 1        |
    +---------------------+---------------------------------------------+----------+

    R = радиус сходимости: ряд сходится при |x| < R, расходится при |x| > R.


 Приложения интегралов


 1. площадь между кривыми:
    S = ∫ₐᵇ |f(x) − g(x)| dx

 2. объём тела вращения:
    V = π ∫ₐᵇ [f(x)]² dx    (вращение вокруг оси x)

 3. длина кривой:
    L = ∫ₐᵇ √(1 + [f'(x)]²) dx

 4. площадь поверхности вращения:
    S = 2π ∫ₐᵇ f(x)√(1 + [f'(x)]²) dx

 5. физические приложения:
    • Работа: W = ∫ F dx
    • Центр масс: x̄ = ∫x·ρ(x)dx / ∫ρ(x)dx
    • Момент инерции: I = ∫r²·dm


 Связь с теплотехникой


 Уравнение теплопроводности:

   ∂T/∂t = α · ∂²T/∂x²

 Это дифференциальное уравнение в частных производных.
 Температура T зависит от времени t и координаты x.

 Закон Фурье (тепловой поток):
   q = −k · dT/dx
   Поток пропорционален градиенту температуры.
   Минус: тепло течёт от горячего к холодному.

 Стационарный случай (∂T/∂t = 0):
   d²T/dx² = 0  ⇒  T(x) = ax + b  (линейный профиль)

 Интеграл = накопление тепла:
   Q = ∫₀ᵗ P(τ)dτ  (энергия = интеграл мощности по времени)


===============================================================================
Сходимость рядов — когда бесконечная сумма имеет смысл
===============================================================================

 Проблема: что значит "бесконечная сумма"?


 Выражение a₁ + a₂ + a₃ + ... = Σₙ aₙ — это не обычная сумма.
 Мы не можем сложить бесконечно много чисел напрямую.

 Определение через предел частичных сумм:

   Sₙ = a₁ + a₂ + ... + aₙ  (n-я частичная сумма)

 +----------------------------------------------------+
 | Ряд Σaₙ сходится, если существует конечный предел: |
 |                                                    |
 | Σₙ₌₁^∞ aₙ = lim Sₙ = S                             |
 | n→∞                                                |
 |                                                    |
 | Иначе ряд расходится.                              |
 +----------------------------------------------------+


 Ключевые Примеры


 1. геометрический ряд:
    Σₙ₌₀^∞ rⁿ = 1 + r + r² + r³ + ...

    • |r| < 1: сходится к 1/(1−r)
      Пример: 1 + ½ + ¼ + ⅛ + ... = 2

    • |r| ≥ 1: расходится
      Пример: 1 + 1 + 1 + ... = ∞

 2. гармонический ряд:
    Σₙ₌₁^∞ 1/n = 1 + ½ + ⅓ + ¼ + ... = ∞  (расходится).

    Хотя члены → 0, сумма всё равно бесконечна.
    (Доказательство: группируем 1/3+1/4 > 1/2, 1/5+...+1/8 > 1/2, и т.д.)

 3. p-ряды:
    Σₙ₌₁^∞ 1/nᵖ  сходится ⟺ p > 1

    • Σ 1/n² = π²/6  (Базельская проблема, Эйлер 1734)
    • Σ 1/n  = ∞     (гармонический, p = 1)

 4. знакочередующийся ряд:
    1 − ½ + ⅓ − ¼ + ... = ln(2)  сходится (условно)


 Признаки сходимости — краткая таблица
+---------------------------+-------------------------------------------------+
| ПРИЗНАК                   | ФОРМУЛИРОВКА                                    |
+---------------------------+-------------------------------------------------+
| Необходимый               | Если Σaₙ сходится, то aₙ → 0                    |
| (но не достаточный)      | Обратное НЕВЕРНО: aₙ→0 ⇏ сходимость           |
+---------------------------+-------------------------------------------------+
| Сравнения                 | 0 ≤ aₙ ≤ bₙ, Σbₙ сход. ⇒ Σaₙ сход.            |
+---------------------------+-------------------------------------------------+
| Даламбера (предельный)    | lim |aₙ₊₁/aₙ| = L: L<1 сход., L>1 расх.       |
+---------------------------+-------------------------------------------------+
| Коши (корневой)           | lim ⁿ√|aₙ| = L: L<1 сход., L>1 расх.          |
+---------------------------+-------------------------------------------------+
| Интегральный              | Σf(n) сход. ⟺ ∫f(x)dx сход. (f↓, f>0)         |
+---------------------------+-------------------------------------------------+
| Лейбница (знакочеред.)    | (−1)ⁿaₙ, aₙ↓0 ⇒ сходится                       |
+---------------------------+-------------------------------------------------+

 Абсолютная vs условная сходимость


 • Σaₙ сходится абсолютно, если сходится Σ|aₙ|
 • Σaₙ сходится условно, если Σaₙ сход., но Σ|aₙ| расход.

 Важно: Абсолютная сходимость ⇒ сходимость (обратное неверно)

 Пример:
   1 − ½ + ⅓ − ¼ + ... сходится условно
   (потому что 1 + ½ + ⅓ + ¼ + ... = ∞)

 Теорема Римана: Условно сходящийся ряд можно перестановкой членов
   сделать сходящимся к любому числу (или расходящимся)!

   Абсолютно сходящийся ряд можно переставлять как угодно —
   сумма не изменится.


===============================================================================
Дифференциальные уравнения — уравнения с производными
===============================================================================

 Дифференциальные уравнения как взгляд на пространство


 Всё, что изменяется — описывается дифференциальным уравнением.

 Температура стержня, колебание маятника, рост популяции, распад ядра,
 цена актива, нагрев бака — все эти процессы объединяет одно:
 скорость изменения величины зависит от самой величины.

 Дифференциальное уравнение — это закон, связывающий состояние системы
 с тем, как быстро она меняется. Решение ДУ — это не число, а функция:
 полная траектория системы во времени.

 В терминах пространств: ОДУ определяет векторное поле на пространстве
 состояний. В каждой точке — стрелка «куда двигаться». Решение — это
 интегральная кривая этого поля.


 Что такое дифференциальное уравнение


 Дифференциальное уравнение (ДУ) — уравнение, содержащее неизвестную
 функцию y(x) и её производные y', y'', ...

 Примеры:
   • y' = ky         (экспоненциальный рост/распад)
   • y'' + y = 0     (гармонический осциллятор)
   • y' = y(1−y)     (логистический рост)

 Решение ДУ — это функция y(x), удовлетворяющая уравнению.

 Порядок ДУ — наивысшая производная в уравнении.
   y' = ky — первого порядка
   y'' + y = 0 — второго порядка


 Классификация
+-------------------------+-----------------------------------------------------+
| ТИП                     | ОПИСАНИЕ                                            |
+-------------------------+-----------------------------------------------------+
| ОДУ (обыкновенное)      | Одна независимая переменная: y(x)                   |
|                         | Пример: y' = f(x, y)                                |
+-------------------------+-----------------------------------------------------+
| УЧП (в частных произв.) | Несколько независимых переменных: u(x,y,t)          |
|                         | Пример: ∂u/∂t = α·∂²u/∂x² (теплопроводность)        |
+-------------------------+-----------------------------------------------------+
| Линейное                | y и производные входят линейно                      |
|                         | Пример: y'' + p(x)y' + q(x)y = f(x)                 |
+-------------------------+-----------------------------------------------------+
| Нелинейное              | y или производные в степени > 1, в произведениях |
|                         | Пример: y' = y², (y')² + y = 1                      |
+-------------------------+-----------------------------------------------------+
| Однородное              | f(x) = 0 (правая часть равна нулю)                  |
| Неоднородное            | f(x) ≠ 0                                            |
+-------------------------+-----------------------------------------------------+

 Как самостоятельно составить дифференциальное уравнение


 Дифференциальные уравнения не падают с неба — они строятся из
 Физических принципов. Вот алгоритм построения любого осмысленного ДУ:

   +---------------------+
   |   Физический        |
   |   объект            |  →  Что изучаем?
   +---------+-----------+
             ↓
   +---------------------+
   |   Физический        |
   |   процесс           |  →  Что происходит?
   +---------+-----------+
             ↓
   +---------------------+
   |   Элементарный      |
   |   объём             |  →  dx, dy, dz, dt
   +---------+-----------+
             ↓
   +---------------------+
   |   Закон             |
   |   сохранения        |  →  Что не меняется?
   +---------+-----------+
             ↓
   +---------------------+
   |  Дифференциальное   |
   |  уравнение          |  →  Математическая модель
   +---------------------+

-------------------------------------------------------------------------------
 Пример: уравнение теплопроводности
-------------------------------------------------------------------------------

 1. объект: стержень
 2. процесс: распространение тепла вдоль стержня
 3. элементарный объём: dx — малый кусок стержня
 4. закон сохранения: энергия (тепло, втекающее = тепло, вытекающее + накоп)

   • Тепловой поток в точке x:     q(x) = −k · ∂T/∂x  (закон Фурье)
   • Тепловой поток в точке x+dx:  q(x+dx) = −k · ∂T/∂x|_{x+dx}
   • Накопление тепла в объёме:    ρc · ∂T/∂t · dx
   • Баланс:  q(x) − q(x+dx) = ρc · ∂T/∂t · dx
   • Разложение:  q(x+dx) ≈ q(x) + ∂q/∂x · dx
   • Результат:  −∂q/∂x = ρc · ∂T/∂t
   • Подстановка:  k · ∂²T/∂x² = ρc · ∂T/∂t

   Итог: ∂T/∂t = α · ∂²T/∂x²,  где α = k/(ρc) — температуропроводность

-------------------------------------------------------------------------------
 Важное замечание
-------------------------------------------------------------------------------

 Практически любое ДУ, используемое в физике (Навье-Стокса, Максвелла,
 уравнение диффузии), можно технически решить даже в Excel.

 Каждой ячейке соответствует одно линейное уравнение, ссылающееся на
 соседние ячейки. На границе заданы константы (граничные условия).

 Это и есть суть численных методов: заменить производные на разности,
 непрерывное — на дискретное.


 Важнейшие ДУ и их решения


 1. экспоненциальный рост/распад:
    y' = ky
    Решение: y = Ceᵏˣ

    Примеры: радиоактивный распад (k<0), рост популяции (k>0),
             нагрев/охлаждение (закон Ньютона)

 2. гармонический осциллятор:
    y'' + ω²y = 0
    Решение: y = A·cos(ωx) + B·sin(ωx) = C·cos(ωx + φ)

    Примеры: маятник, пружина, колебания в цепях

 3. затухающие колебания:
    y'' + 2γy' + ω²y = 0
    Характеристическое уравнение: λ² + 2γλ + ω² = 0

    • γ < ω: затухающие колебания (недодемпфирование)
    • γ = ω: критическое демпфирование
    • γ > ω: апериодический режим (передемпфирование)

 4. уравнение теплопроводности (УЧП):
    ∂T/∂t = α·∂²T/∂x²

    Решение методом разделения переменных или Фурье-рядами

 5. волновое уравнение (УЧП):
    ∂²u/∂t² = c²·∂²u/∂x²

    Решение: u = f(x−ct) + g(x+ct) (волны, бегущие влево и вправо)


 Методы решения ОДУ первого порядка


 1. разделение переменных:
    Если y' = f(x)g(y), то dy/g(y) = f(x)dx → интегрируем обе части

    Пример: y' = xy
    dy/y = x dx → ln|y| = x²/2 + C → y = Aeˣ²/²

 2. линейное ОДУ 1-го порядка:
    y' + p(x)y = q(x)

    Интегрирующий множитель: μ(x) = e^{∫p(x)dx}
    Решение: y = (1/μ)∫μq dx

 3. однородное уравнение:
    y' = f(y/x)
    Замена: v = y/x, тогда y = vx, y' = v + xv'


 Начальные и краевые условия


 Общее решение ДУ содержит произвольные константы.
 Чтобы найти конкретное решение, нужны дополнительные условия:

 Начальные условия (задача Коши):
   Значения функции и производных в начальный момент
   y(0) = y₀, y'(0) = v₀, ...

 Краевые условия:
   Значения на границах области
   y(a) = A, y(b) = B

 Теорема существования и единственности (Пикара):
   Для y' = f(x,y), y(x₀) = y₀, если f непрерывна и удовлетворяет
   условию Липшица по y, то решение существует и единственно.


 Методы решения ОДУ второго порядка


 Линейное ОДУ 2-го порядка с постоянными коэффициентами:
   ay'' + by' + cy = f(x)

 Шаг 1: Решаем однородное уравнение (f(x) = 0)

   Ищем решение вида y = eˡˣ. Подставляем:
   a·λ²eˡˣ + b·λeˡˣ + c·eˡˣ = 0
   eˡˣ(aλ² + bλ + c) = 0

 +-------------------------------------------------+
 | ХАРАКТЕРИСТИЧЕСКОЕ УРАВНЕНИЕ:  aλ² + bλ + c = 0 |
 +-------------------------------------------------+

 Общее решение однородного в зависимости от корней λ₁, λ₂:

 +----------------+---------------------------------+
 | ДИСКРИМИНАНТ   | ОБЩЕЕ РЕШЕНИЕ                   |
 +----------------+---------------------------------+
 | D > 0       | y = C₁eˡ¹ˣ + C₂eˡ²ˣ             |
 | (два веществ.) | (λ₁ ≠ λ₂ — разные вещественные) |
 +----------------+---------------------------------+
 | D = 0          | y = (C₁ + C₂x)eˡˣ               |
 | (один кратный) | (λ₁ = λ₂ = λ)                   |
 +----------------+---------------------------------+
 | D < 0       | y = eᵅˣ(C₁cos(βx) + C₂sin(βx))  |
 | (комплексные)  | где λ = α ± iβ                  |
 +----------------+---------------------------------+

 Шаг 2: Находим частное решение неоднородного (метод вариации постоянных
        или метод неопределённых коэффициентов)

 Шаг 3: общее решение = общее однородного + частное неоднородного

 Пример: y'' + 4y = 0
   λ² + 4 = 0 → λ = ±2i → y = C₁cos(2x) + C₂sin(2x)


 Преобразование Лапласа — мощный инструмент


 +--------------------------------------------------------------------+
 | ОПРЕДЕЛЕНИЕ:                                                       |
 | ∞                                                                  |
 | ℒ{f(t)} = F(s) = ∫  e⁻ˢᵗ f(t) dt                                   |
 | 0                                                                  |
 |                                                                    |
 | Превращает функцию времени f(t) в функцию комплексной частоты F(s) |
 +--------------------------------------------------------------------+

 Зачем нужно:
   • Превращает ДУ в алгебраические уравнения
   • Автоматически учитывает начальные условия
   • Идеально для линейных систем, теории управления

 Ключевое свойство — производная:
   ℒ{f'(t)} = sF(s) − f(0)
   ℒ{f''(t)} = s²F(s) − sf(0) − f'(0)

   Дифференцирование → умножение на s (плюс начальные условия)


 Таблица преобразований Лапласа
+-------------------------+-------------------+
| f(t)                    | F(s) = ℒ{f(t)}    |
+-------------------------+-------------------+
| 1                       | 1/s               |
+-------------------------+-------------------+
| t                       | 1/s²              |
+-------------------------+-------------------+
| tⁿ                      | n!/sⁿ⁺¹           |
+-------------------------+-------------------+
| eᵃᵗ                     | 1/(s−a)           |
+-------------------------+-------------------+
| sin(ωt)                 | ω/(s²+ω²)         |
+-------------------------+-------------------+
| cos(ωt)                 | s/(s²+ω²)         |
+-------------------------+-------------------+
| eᵃᵗsin(ωt)              | ω/((s−a)²+ω²)     |
+-------------------------+-------------------+
| eᵃᵗcos(ωt)              | (s−a)/((s−a)²+ω²) |
+-------------------------+-------------------+
| δ(t) (дельта-функция)   | 1                 |
+-------------------------+-------------------+
| u(t) (единичный скачок) | 1/s               |
+-------------------------+-------------------+

 Пример: решение ДУ преобразованием Лапласа


 Задача: y'' + 4y = 0,  y(0) = 1,  y'(0) = 0

 Шаг 1: Применяем ℒ к обеим сторонам
   ℒ{y''} + 4ℒ{y} = 0
   [s²Y(s) − sy(0) − y'(0)] + 4Y(s) = 0
   [s²Y(s) − s·1 − 0] + 4Y(s) = 0

 Шаг 2: Решаем алгебраическое уравнение
   (s² + 4)Y(s) = s
   Y(s) = s/(s² + 4)

 Шаг 3: Обратное преобразование (по таблице)
   Y(s) = s/(s² + 2²) → y(t) = cos(2t)

 Ответ: y(t) = cos(2t)


 Таблица преобразований Фурье

 Определение: ℱ{f(t)} = F(ω) = ∫_{−∞}^{∞} f(t)·e^{−iωt} dt

+----------------------------+------------------------------+
| f(t)                       | F(ω) = ℱ{f(t)}              |
+----------------------------+------------------------------+
| δ(t)                       | 1                            |
+----------------------------+------------------------------+
| 1                          | 2π·δ(ω)                      |
+----------------------------+------------------------------+
| e^{iω₀t}                   | 2π·δ(ω − ω₀)                |
+----------------------------+------------------------------+
| cos(ω₀t)                   | π[δ(ω−ω₀) + δ(ω+ω₀)]        |
+----------------------------+------------------------------+
| sin(ω₀t)                   | πi[δ(ω+ω₀) − δ(ω−ω₀)]       |
+----------------------------+------------------------------+
| e^{−a|t|}  (a>0)           | 2a/(a² + ω²)                |
+----------------------------+------------------------------+
| e^{−at²}  (гауссиан)      | √(π/a)·e^{−ω²/(4a)}         |
+----------------------------+------------------------------+
| rect(t/τ) (прямоугольник)  | τ·sinc(ωτ/2)                 |
+----------------------------+------------------------------+
| u(t)·e^{−at} (a>0)         | 1/(a + iω)                   |
+----------------------------+------------------------------+
| t·u(t)·e^{−at}             | 1/(a + iω)²                  |
+----------------------------+------------------------------+

 Ключевые свойства:
   Линейность:   ℱ{af + bg} = aF + bG
   Сдвиг:        ℱ{f(t−t₀)} = e^{−iωt₀}F(ω)
   Модуляция:    ℱ{e^{iω₀t}f(t)} = F(ω − ω₀)
   Свёртка:      ℱ{f * g} = F · G
   Производная:  ℱ{f'(t)} = iω·F(ω)
   Парсеваль:    ∫|f(t)|²dt = (1/2π)∫|F(ω)|²dω


 Сводная таблица: основные УЧП математической физики


 +--------------+-----------------+-----------------+------------------+
 | УРАВНЕНИЕ    | ФОРМУЛА         | ТИП             | ФИЗИКА           |
 +--------------+-----------------+-----------------+------------------+
 | Теплопров-ти | ∂u/∂t = α∇²u    | Параболическое  | Диффузия,        |
 |              |                 |                 | теплообмен       |
 +--------------+-----------------+-----------------+------------------+
 | Волновое     | ∂²u/∂t² = c²∇²u | Гиперболическое | Колебания,       |
 |              |                 |                 | волны, звук      |
 +--------------+-----------------+-----------------+------------------+
 | Лапласа      | ∇²u = 0         | Эллиптическое   | Стационарные     |
 |              |                 |                 | поля, потенциалы |
 +--------------+-----------------+-----------------+------------------+
 | Пуассона     | ∇²u = f         | Эллиптическое   | Электростатика,  |
 |              |                 |                 | гравитация       |
 +--------------+-----------------+-----------------+------------------+
 | Шрёдингера   | iℏ∂ψ/∂t = Ĥψ    | Параболическое  | Квантовая        |
 |              |                 | (в t)           | механика         |
 +--------------+-----------------+-----------------+------------------+
 | Навье-Стокса | ∂v/∂t + (v·∇)v  | Нелинейное.     | Гидродинамика    |
 |              | = −∇p/ρ + ν∇²v  |                 |                  |
 +--------------+-----------------+-----------------+------------------+

 Классификация по характеристикам (для линейных 2-го порядка):

 +-----------------+------------------+----------------------------+
 | ТИП             | ДИСКРИМИНАНТ     | ПОВЕДЕНИЕ РЕШЕНИЙ          |
 +-----------------+------------------+----------------------------+
 | Эллиптический   | B² − 4AC < 0  | Гладкие, макс. внутри      |
 | (Лаплас)        | (нет вещ. хар-к) | Краевые задачи             |
 +-----------------+------------------+----------------------------+
 | Параболический  | B² − 4AC = 0     | Сглаживание, диффузия      |
 | (Теплопроводн.) | (одна хар-ка)    | Нач. + краевые условия     |
 +-----------------+------------------+----------------------------+
 | Гиперболический | B² − 4AC > 0  | Волны, разрывы сохраняются |
 | (Волновое)      | (две хар-ки)     | Задача Коши                |
 +-----------------+------------------+----------------------------+


 Граничные условия — как задать задачу


 УЧП без граничных условий имеет бесконечно много решений.
 Граничные условия выбирают единственное физически осмысленное.

 +-------------+------------------+-------------------------------------------+
 | ТИП         | ФОРМУЛА          | ФИЗИЧЕСКИЙ СМЫСЛ                          |
 +-------------+------------------+-------------------------------------------+
 | Дирихле     | u|_∂Ω = g        | Задана температура на границе             |
 |             |                  | (термостат)                               |
 +-------------+------------------+-------------------------------------------+
 | Нейман      | ∂u/∂n|_∂Ω = h    | Задан тепловой поток через границу        |
 |             |                  | (изоляция при h=0)                        |
 +-------------+------------------+-------------------------------------------+
 | Робен       | (∂u/∂n + αu)|_∂Ω | Конвективный теплообмен со средой         |
 | (третьего   | = h              | (закон Ньютона-Рихмана):                  |
 | рода)       |                  | q = α(T_пов − T_среды)                    |
 +-------------+------------------+-------------------------------------------+

 Для инженера: Дирихле — термостат, Нейман — изоляция/нагреватель,
 Робен — свободный теплообмен с воздухом.


 Метод разделения переменных — пример


 Задача: ∂T/∂t = α·∂²T/∂x² на [0, L], T(0,t) = T(L,t) = 0, T(x,0) = f(x)

 Идея: ищем T(x,t) = X(x)·Θ(t) — произведение функции x и функции t.

 Подстановка: X·Θ' = α·X''·Θ  →  Θ'/(αΘ) = X''/X = −λ  (= const)

 Два ОДУ вместо одного УЧП:
   X'' + λX = 0,   X(0) = X(L) = 0   →  Xₙ = sin(nπx/L),  λₙ = (nπ/L)²
   Θ' + αλₙΘ = 0                      →  Θₙ = e^{−α(nπ/L)²t}

 Общее решение (суперпозиция):
   T(x,t) = Σₙ bₙ · sin(nπx/L) · e^{−α(nπ/L)²t}

 Коэффициенты из начального условия (ряд Фурье):
   bₙ = (2/L) ∫₀ᴸ f(x)·sin(nπx/L) dx

 Физический смысл: каждая гармоника затухает экспоненциально,
 высокие частоты (большие n) затухают быстрее — тепло «сглаживает».


===============================================================================
Равномерная сходимость — ключевое понятие
===============================================================================

 Проблема: Когда можно переставлять пределы?


 Пусть fₙ(x) → f(x) при n → ∞. Верны ли равенства?

   lim ∫fₙ(x)dx  =?  ∫ lim fₙ(x) dx     (предел интеграла = интеграл предела)
   n→∞               n→∞

   lim fₙ'(x)    =?  (lim fₙ(x))'        (предел производных = производная)
   n→∞               n→∞

 Ответ: В общем случае — нет.

 Контрпример:
   fₙ(x) = xⁿ на [0,1]
   fₙ(x) → f(x) = { 0, если x < 1
                  { 1, если x = 1
   ∫₀¹ fₙ dx = 1/(n+1) → 0
   ∫₀¹ f dx  = 0       ✓ (совпало случайно)

   Но f — разрывна, хотя все fₙ непрерывны.
   Предел непрерывных функций не обязан быть непрерывным.


 Два типа сходимости


 +-------------------------------------------------------------------------+
 | ПОТОЧЕЧНАЯ СХОДИМОСТЬ                                                   |
 | fₙ → f поточечно, если ∀x: lim fₙ(x) = f(x)                            |
 |                           n→∞                                           |
 |                                                                         |
 | Формально: ∀x ∀ε>0 ∃N(x,ε): n>N ⇒ |fₙ(x)−f(x)| < ε                    |
 |                    ↑                                                    |
 |            N зависит от x!                                              |
 +-------------------------------------------------------------------------+

 +-------------------------------------------------------------------------+
 | РАВНОМЕРНАЯ СХОДИМОСТЬ                                                  |
 | fₙ ⇉ f равномерно, если сходимость "одинаково быстрая" для всех x      |
 |                                                                         |
 | Формально: ∀ε>0 ∃N(ε): ∀x ∀n>N ⇒ |fₙ(x)−f(x)| < ε                     |
 |                  ↑                                                      |
 |          N не зависит от x!                                             |
 +-------------------------------------------------------------------------+

 Эквивалентное условие:
   fₙ ⇉ f  ⟺  sup|fₙ(x) − f(x)| → 0
              x

 Визуально:
   Равномерная сходимость = график fₙ целиком попадает в ε-трубку
   вокруг графика f (для достаточно больших n)

       f(x)+ε -------------------------
              ~~~~~~~~fₙ(x)~~~~~~~~~   ← fₙ внутри трубки
       f(x)   =========================
              ~~~~~~~~~~~~~~~~~~~~~~~~
       f(x)−ε -------------------------


 Почему равномерная сходимость важна


 Теоремы о перестановке пределов:

 +------------------------------------------------------+
 | Если fₙ ⇉ f РАВНОМЕРНО на [a,b]:                     |
 |                                                      |
 | 1. ПРЕДЕЛ СОХРАНЯЕТ НЕПРЕРЫВНОСТЬ:                   |
 | fₙ непрерывны ⇒ f непрерывна                         |
 |                                                      |
 | 2. МОЖНО ПЕРЕСТАВЛЯТЬ ПРЕДЕЛ и ИНТЕГРАЛ:             |
 | lim ∫fₙ dx = ∫ lim fₙ dx = ∫f dx                     |
 | n→∞         n→∞                                      |
 |                                                      |
 | 3. МОЖНО ПЕРЕСТАВЛЯТЬ ПРЕДЕЛ и ПРОИЗВОДНУЮ:          |
 | Если fₙ' ⇉ g равномерно и fₙ(x₀) сходится, то f' = g |
 +------------------------------------------------------+

 Без равномерности эти утверждения ложны.


 Критерий равномерной сходимости рядов (признак Вейерштрасса)


 Пусть Σuₙ(x) — функциональный ряд.

 +-------------------------------------------------------------------------+
 | ПРИЗНАК ВЕЙЕРШТРАССА (M-test):                                          |
 |                                                                         |
 | Если существуют числа Mₙ ≥ 0 такие, что:                                |
 |   1. |uₙ(x)| ≤ Mₙ для всех x                                           |
 |   2. Σ Mₙ сходится (числовой ряд)                                      |
 |                                                                         |
 | Тогда Σuₙ(x) сходится РАВНОМЕРНО и АБСОЛЮТНО.                          |
 +-------------------------------------------------------------------------+

 Пример: Ряд Σ xⁿ/n² на [−1, 1]
   |xⁿ/n²| ≤ 1/n² = Mₙ
   Σ 1/n² сходится (p-ряд, p=2>1)
   ⇒ ряд сходится равномерно на [−1, 1]


 Степенные ряды и равномерная сходимость


 Степенной ряд Σaₙxⁿ имеет радиус сходимости r:
   • |x| < R: ряд сходится абсолютно
   • |x| > R: ряд расходится
   • |x| = R: нужно проверять отдельно

 Формула Коши-Адамара:  1/R = lim sup ⁿ√|aₙ|
                              n→∞

 Ключевой факт:
   На любом отрезке [−r, r] с r < R степенной ряд
   сходится равномерно.

   Поэтому можно почленно дифференцировать и интегрировать
   степенные ряды внутри круга сходимости.


 Прикладной пример: динамика бака-аккумулятора


 Задача: Бак-аккумулятор горячей воды. Приток и отток меняются во времени.
 Как меняется температура воды?

           Gвх, Tвх
              ↓
         +===========+
         |           |      V — объём бака
         |    T(t)   |      T(t) — температура воды
         |           |      Gвх, Gвых — расходы (кг/с)
         +===========+
              ↓
           Gвых, T

 Уравнение теплового баланса:

   ρVc · dT/dt = Gвх·c·(Tвх − T) + Qпотерь
       ↑            ↑                  ↑
   накопление    приток тепла      потери наружу

-------------------------------------------------------------------------------
 Производная — это скорость изменения:
-------------------------------------------------------------------------------

   dT/dt = скорость изменения температуры [°C/с]

   • dT/dt > 0: бак нагревается
   • dT/dt < 0: бак остывает
   • dT/dt = 0: стационарный режим (температура постоянна)

-------------------------------------------------------------------------------
 Интеграл — это накопление:
-------------------------------------------------------------------------------

   Накопленное тепло за время [0, t]:

   Q = ∫₀ᵗ Gвх·c·(Tвх − T) dτ     [Дж]

   Если Gвх = 1 кг/с, Tвх = 80°C, T = 60°C, c = 4200 Дж/(кг·К):
   За 1 час (3600 с): Q = 1 × 4200 × 20 × 3600 = 302 МДж

-------------------------------------------------------------------------------
 Численный пример:
-------------------------------------------------------------------------------

   V = 1 м³, ρ = 1000 кг/м³, c = 4200 Дж/(кг·К)
   Gвх = 0.1 кг/с, Tвх = 90°C, начальная T₀ = 20°C
   Потери: Qпотерь = −100·(T − Tокр), Tокр = 20°C

   Постоянная времени: τ = ρVc / (Gвх·c + k) ≈ 4.2×10⁶ / (420 + 100)
                      ≈ 8000 с ≈ 2.2 часа

   За время τ температура достигает ~63% от установившегося значения.

-------------------------------------------------------------------------------

 Мораль: Производная = мгновенная скорость изменения.
 Интеграл = накопленный эффект за время. Это язык тепловой динамики.


-------------------------------------------------------------------------------


Матанализ работает с функциями как с объектами. Но множество функций —
это тоже пространство, причём бесконечномерное. Можно ли на нём делать
линейную алгебру?

Можно. Ряды — это координаты функции в базисе {1, x, x², ...} или {eⁱⁿˣ}.
Это мост к функциональному анализу — линейной алгебре на пространствах функций.
===============================================================================
Ряды и функциональные пространства — мост к функанализу
===============================================================================

 Ряды как взгляд на пространство функций


 Функции образуют бесконечномерное пространство. Ряды Фурье и Тейлора —
 это координаты функции в этом пространстве относительно выбранного базиса.

   • Базис Тейлора: 1, x, x², x³, ... (степенные функции)
   • Базис Фурье:   eⁱⁿˣ = cos(nx) + i·sin(nx) (гармоники)

 Коэффициенты ряда = координаты функции = проекции на базисные векторы.
 Это превращает анализ в линейную алгебру бесконечной размерности.


 Предварительное знание: Для рядов Фурье используется базис eⁱⁿˣ.
     Напоминание: формула Эйлера eⁱˣ = cos x + i sin x.

 Зачем этот раздел здесь


 Этот раздел — мост между матанализом и функанализом.

 Ключевая идея: функции образуют векторное пространство.
 Эта мысль превращает анализ в линейную алгебру бесконечной размерности.

 Ряды Тейлора и Фурье — это разложение функций по базису.
 Коэффициенты Фурье — это координаты функции в этом базисе.

 Понимание этого раздела делает функанализ естественным.


 Ключевое открытие


 Функции образуют векторное пространство.

   • Можно складывать: (f + g)(x) = f(x) + g(x)
   • Можно умножать на число: (cf)(x) = c·f(x)
   • Есть нулевой элемент: f(x) = 0

 Значит вся линейная алгебра работает для функций.
   • Базис
   • Разложение по базису
   • Скалярное произведение
   • Ортогональность


 Один паттерн — три реализации
+------------------------+-------------------------+-----------------------+
| КОНЕЧНОМЕРНОЕ          | РЯД ТЕЙЛОРА             | РЯД ФУРЬЕ             |
| (обычные векторы)      |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Пространство ℝⁿ        | Гладкие функции         | Периодические функции |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Базис: e₁, e₂, ..., eₙ | Базис: 1, x, x², x³, ... | Базис: eⁱⁿˣ (n ∈ ℤ)   |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Вектор v = Σ vᵢeᵢ      | f(x) = Σ aₙxⁿ           | f(x) = Σ cₙeⁱⁿˣ       |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Коэффициент vᵢ = v·eᵢ  | aₙ = f⁽ⁿ⁾(0)/n!         | cₙ = ⟨f, eⁱⁿˣ⟩        |
| (скал. произведение)   | (производная)           | (интеграл)           |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Размерность: n         | Размерность: ∞          | Размерность: ∞        |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+

 Скалярное произведение функций


 Для векторов: ⟨u, v⟩ = Σᵢ uᵢvᵢ

 Для функций:  ⟨f, g⟩ = ∫ f(x)g̅(x) dx   ← сумма заменяется интегралом.

 (Для комплексных функций берём сопряжённое g̅, чтобы ⟨f,f⟩ ≥ 0)

 Ортогональность: ⟨f, g⟩ = 0

 Важно: Это скалярное произведение превращает функции в гильбертово
 пространство L². Вся конструкция рядов Фурье — это применение
 ортогональных проекций в бесконечномерном гильбертовом пространстве.

 Факт: функции eⁱⁿˣ ортогональны друг другу.
       ⟨eⁱᵐˣ, eⁱⁿˣ⟩ = ∫₋π^π eⁱ⁽ᵐ⁻ⁿ⁾ˣ dx = 0  при m ≠ n

 Поэтому коэффициенты Фурье находятся так же, как в конечномерном случае:
   cₙ = ⟨f, eⁱⁿˣ⟩ / ⟨eⁱⁿˣ, eⁱⁿˣ⟩  (проекция на базисный вектор)


 Сравнение: локальное vs глобальное
+------------------------+----------------------------+
| ТЕЙЛОР                 | ФУРЬЕ                      |
+------------------------+----------------------------+
| Разложение ОКОЛО ТОЧКИ | Разложение НА ВСЁМ ПЕРИОДЕ |
| (локальная информация) | (глобальная информация)    |
+------------------------+----------------------------+
| Коэффициенты из        | Коэффициенты из            |
| ПРОИЗВОДНЫХ в точке    | ИНТЕГРАЛОВ по периоду      |
+------------------------+----------------------------+
| Требует бесконечную    | Работает даже для          |
| дифференцируемость     | разрывных функций.         |
+------------------------+----------------------------+
| Применение:            | Применение:                |
| • Приближённые вычисл. | • Анализ сигналов          |
| • Анализ поведения     | • Обработка звука/изобр.   |
| • Решение ДУ рядами    | • Сжатие (JPEG, MP3)       |
+------------------------+----------------------------+

 Конкретный пример: пульсации давления в трубопроводе


 Задача: Насос создаёт пульсации давления. Датчик снимает сигнал p(t).
 Вопрос: какие частоты присутствуют? Есть ли резонанс с трубой?

 Сигнал с датчика (условно):

   p(t) |    ╱╲    ╱╲    ╱╲    ╱╲
        |   ╱  ╲  ╱  ╲  ╱  ╲  ╱  ╲   ← основная частота насоса
        |  ╱~~~~╲╱~~~~╲╱~~~~╲╱~~~~╲  ← "рябь" на пиках
        |--------------------------→ t

 Разложение Фурье:

   p(t) = p₀ + A₁sin(ωt) + A₂sin(2ωt) + A₃sin(3ωt) + ...

   • p₀ = среднее давление (постоянная составляющая)
   • ω = частота вращения насоса (основная гармоника)
   • 2ω, 3ω, ... = высшие гармоники ("рябь")

 Спектр (амплитуды):

   |Aₙ| | █
        | █
        | █  █
        | █  █  █
        | █  █  █  █
        |-----------------→ n (номер гармоники)
          2  3  4

 Что даёт спектр:
   • Пик на частоте 47 Гц → это частота вращения вала насоса
   • Пик на 94 Гц (2×47) → двухлопастное колесо
   • Неожиданный пик на 120 Гц → резонанс с собственной частотой трубы.

 Вывод: Фурье превращает "кашу" во времени в чёткую картину по частотам.


 Формулы (для вычислений)


 Тейлор около a:
   f(x) = f(a) + f'(a)(x−a) + f''(a)(x−a)²/2! + f'''(a)(x−a)³/3! + ...

 Важные ряды (a = 0):
   eˣ = 1 + x + x²/2! + x³/3! + ...
   sin x = x − x³/3! + x⁵/5! − ...
   cos x = 1 − x²/2! + x⁴/4! − ...
   1/(1−x) = 1 + x + x² + x³ + ...  (|x| < 1)

 Фурье:
   f(x) = Σₙ cₙ eⁱⁿˣ,  где  cₙ = (1/2π) ∫₋π^π f(x) e⁻ⁱⁿˣ dx


 Магия Фурье: свёртка ↔ умножение


 Свёртка (convolution) — важнейшая операция в обработке сигналов:

   (f ∗ g)(t) = ∫ f(τ) g(t − τ) dτ

 Смысл: "размазывание" функции f с "ядром" g
   • Фильтрация сигналов
   • Сглаживание (гауссово размытие)
   • Отклик линейной системы

 Проблема: Свёртка — сложная операция (интеграл по всем сдвигам)

 Теорема о свёртке:
 +------------------------------------------------------+
 |                                                      |
 | F[f ∗ g] = F[f] · F[g]                               |
 |                                                      |
 | Преобразование Фурье превращает свёртку в умножение. |
 |                                                      |
 +------------------------------------------------------+

 Визуализация:

   Временна́я область              Частотная область
   (сложно)                        (просто)

      f(t), g(t)      --F--→       F(ω), G(ω)
          |                            |
          | свёртка                    | умножение
          ↓                            ↓
      (f ∗ g)(t)      ←-F⁻¹-      F(ω) · G(ω)

 Практическое значение:
   Вместо сложного интеграла (O(n²)) делаем:
   1. БПФ входа       — O(n log n)
   2. Умножение       — O(n)
   3. Обратное БПФ    — O(n log n)
   Итого: O(n log n) вместо O(n²) — огромный выигрыш.

 Примеры применения:
   • Обработка изображений (фильтры в Photoshop)
   • Распознавание речи
   • Решение дифференциальных уравнений
   • Нейросети (свёрточные слои)
   • Умножение больших чисел (алгоритм Шёнхаге-Штрассена)

 Обратная теорема:
   F[f · g] = F[f] ∗ F[g]    (умножение ↔ свёртка в обратную сторону)

 Глубинный смысл:
   Преобразование Фурье — это изоморфизм между двумя алгебрами:
   (функции, свёртка) ≅ (функции, умножение)
   Сложная структура в одном мире = простая в другом.


 Куда ведёт


 Функциональный анализ: изучение бесконечномерных пространств функций
   Гильбертово пространство L² = {f: ∫|f|² < ∞} со скал. произведением

 Квантовая механика: состояние ψ ∈ L², наблюдаемые — операторы
   Разложение ψ по собственным функциям = суперпозиция состояний

 Обработка сигналов: БПФ (быстрое преобразование Фурье)
   O(n log n) вместо O(n²) — революция в вычислениях

 Теория представлений: базис eⁱⁿˣ = представление группы U(1).
   Обобщение на другие группы → гармонический анализ


-------------------------------------------------------------------------------


Ряды показали: функции — это точки бесконечномерного пространства.
Теперь нужна теория таких пространств. Что значит "норма функции"?
Когда ряд сходится? Какие операторы непрерывны?

Функциональный анализ — это линейная алгебра в бесконечной размерности.
Всё то же (нормы, скалярные произведения, проекции), но с новыми эффектами.
-------------------------------------------------------------------------------

===============================================================================
Функциональный анализ — бесконечномерные пространства
===============================================================================

 Главная идея: функции — это "точки" в бесконечномерном пространстве


 Этот раздел — не про новые формулы. Он про смену точки зрения.

 В школе: функция f(x) = x² — это "правило", формула, график.

 Новый взгляд: функция f — это точка в пространстве всех функций.

-------------------------------------------------------------------------------

 Аналогия: конечное → бесконечное

   В ℝ³ точка задаётся 3 координатами:

       v = (v₁, v₂, v₃)    — три числа определяют вектор

   Функция f на [0,1] задаётся бесконечно многими координатами:

       f = (f(0), f(0.01), f(0.02), ..., f(0.99), f(1))

   Каждое значение f(t) — это "координата" функции в "направлении t".

       y
       ↑     ╭--╮
       |    ╱    ╲
       |   ╱      ╲
       |  ╱        ╲     f(t)
       | ╱          ╲
       +-----------------→ t
          0.5    1

   Эта кривая — не график. Это одна точка f в бесконечномерном пространстве.


 Почему это полезно


 Если функции — точки пространства, то:

   +------------------------+----------------------------------------------+
   | КОНЕЧНОМЕРНОЕ          | БЕСКОНЕЧНОМЕРНОЕ (функции)                   |
   +------------------------+----------------------------------------------+
   | Вектор v ∈ ℝⁿ          | Функция f ∈ L²                              |
   | Длина ‖v‖ = √(Σvᵢ²)    | Норма ‖f‖ = √(∫|f|²dx)                      |
   | Расстояние ‖v−w‖       | Расстояние ‖f−g‖ между функциями            |
   | Угол cos θ = (v·w)/‖v‖‖w‖ | "Угол" через ⟨f,g⟩ = ∫fg dx            |
   | Ортогональность v⊥w    | Ортогональность ⟨f,g⟩ = 0                  |
   | Базис {e₁,...,eₙ}      | Базис {sin(nx), cos(nx)} или {eⁱⁿˣ}        |
   | Разложение v = Σvᵢeᵢ   | Ряд Фурье f = Σcₙeⁱⁿˣ                      |
   | Проекция на подпр-во   | Наилучшее приближение (МНК)                |
   | Линейный оператор A    | Дифференциальный оператор d/dx             |
   | Собственные значения   | Спектр оператора (резонансы)               |
   +------------------------+----------------------------------------------+

 Вся линейная алгебра работает для функций.
 Но есть тонкости: бесконечность создаёт новые эффекты (см. ниже).


 Ловушки бесконечномерности — где интуиция из ℝⁿ ломается


 +--------------------------+-----------------+-------------------------+
 | Свойство                 | В ℝⁿ            | В L² / ℓ²               |
 +--------------------------+-----------------+-------------------------+
 | Замкнутый шар            | Компактен       | не компактен.           |
 | {‖x‖ ≤ 1}                | (Гейне-Борель)  | (бесконечная посл-ть    |
 |                          |                 | без сход. подпосл)     |
 +--------------------------+-----------------+-------------------------+
 | Все нормы                | Эквивалентны    | не эквивалентны.        |
 |                          |                 | ‖f‖₁ ≠ ‖f‖₂ ≠ ‖f‖_∞     |
 +--------------------------+-----------------+-------------------------+
 | Сходимость xₙ → x        | По любой норме  | Разные сходимости.      |
 |                          | одинаково       | Поточечная ≠ по норме   |
 +--------------------------+-----------------+-------------------------+
 | Ортогональный базис      | КОНЕЧНЫЙ        | Счётный или несчётный   |
 |                          |                 | (sin, cos, ... )        |
 +--------------------------+-----------------+-------------------------+
 | Оператор с собств. знач. | Диагонализуется | Может не иметь собств.  |
 |                          | (для симм.)     | векторов. Спектр ≠ с.з. |
 +--------------------------+-----------------+-------------------------+

 Главная мысль: В бесконечномерном пространстве много "свободы", и
 патологии, невозможные в ℝⁿ, становятся нормой. Функанализ учит
 распознавать, когда конечномерная интуиция работает, а когда — нет.


 Зачем нужен функциональный анализ


 Линейная алгебра работает с ℝⁿ — конечномерными пространствами.
 Но пространства функций бесконечномерны.

 Функциональный анализ = линейная алгебра + анализ + топология
                         для бесконечномерных пространств

 Применения:
   • Квантовая механика (состояния = векторы в L²)
   • Дифференциальные уравнения (операторные методы)
   • Обработка сигналов (преобразование Фурье)
   • Машинное обучение (ядерные методы, RKHS)


 Иерархия пространств


   +---------------------------------------------------------------------+
   |                                                                     |
   |  Векторное пространство                                             |
   |         |                                                           |
   |         | + норма ‖·‖                                               |
   |         ▼                                                           |
   |  Нормированное пространство                                         |
   |         |                                                           |
   |         | + полнота (все Коши сходятся)                             |
   |         ▼                                                           |
   |  Банахово пространство                                              |
   |         |                                                           |
   |         | + норма из скал. произведения: ‖x‖ = √⟨x,x⟩               |
   |         ▼                                                           |
   |  Гильбертово пространство                                           |
   |                                                                     |
   +---------------------------------------------------------------------+


 Критическое отличие от конечномерного случая


 В ℝⁿ: X компактно ⟺ X замкнуто и ограничено (теорема Гейне-Бореля)

 В бесконечномерном пространстве это неверно.

   Единичный шар B = {f ∈ L² : ‖f‖ ≤ 1}:
     • Замкнут ✓
     • Ограничен ✓
     • не компактен. ✗

 Почему: последовательность eₙ = (0,...,0,1,0,...) с единицей на n-м месте
 лежит в единичном шаре, но не имеет сходящейся подпоследовательности
 (‖eₙ − eₘ‖ = √2 для n ≠ m).

 Следствие для инженера:
   • В ℝⁿ: минимум непрерывной функции на компакте достигается
   • В L²: минимум функционала может не достигаться на замкн. огранич.
   • Поэтому PDE сложнее ODE: нужны специальные методы (слабые решения)

 Компактность в бесконечномерном случае:
   Нужны дополнительные условия — например, равностепенная непрерывность
   (теорема Арцела-Асколи) или слабая компактность.


 Норма — обобщение длины


 Норма ‖·‖: V → ℝ должна удовлетворять:

 +-------------------------+---------------------------------------------+
 | АКСИОМА                 | СМЫСЛ                                       |
 +-------------------------+---------------------------------------------+
 | ‖x‖ ≥ 0                 | Длина неотрицательна                        |
 | ‖x‖ = 0 ⟺ x = 0        | Только нулевой вектор имеет нулевую длину   |
 | ‖αx‖ = |α|·‖x‖          | Масштабирование                             |
 | ‖x+y‖ ≤ ‖x‖+‖y‖         | Неравенство треугольника                    |
 +-------------------------+---------------------------------------------+

 Норма порождает метрику: d(x,y) = ‖x−y‖


 Примеры норм и пространств
+-------------------+-------------------------+-------------------------------+
| ПРОСТРАНСТВО      | НОРМА                   | ПОЛНОТА                       |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖₂ = √(Σxᵢ²)          | Да (Банахово и Гильбертово)   |
| (евклидова)       |                         |                               |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖₁ = Σ|xᵢ|            | Да (Банахово)                 |
| (манхэттенская)   |                         |                               |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖_∞ = max|xᵢ|         | Да (Банахово)                 |
| (sup-норма)       |                         |                               |
+-------------------+-------------------------+-------------------------------+
| C[a,b]            | ‖f‖_∞ = max|f(x)|       | Да (Банахово)                 |
| (непр. функции)   |                         |                               |
+-------------------+-------------------------+-------------------------------+
| Lᵖ[a,b]           | ‖f‖_p = (∫|f|ᵖ)^(1/p)   | Да (Банахово)                 |
| (1 ≤ p < ∞)       |                         | При p=2: Гильбертово          |
+-------------------+-------------------------+-------------------------------+
| L²[a,b]           | ‖f‖₂ = √(∫|f|²)         | Да (Гильбертово)              |
| (квадр. интегр.)  | ⟨f,g⟩ = ∫f·g̅           | Главное в квант. механике     |
+-------------------+-------------------------+-------------------------------+
| ℓ² (посл-сти)     | ‖x‖ = √(Σ|xₙ|²)         | Да (Гильбертово)              |
|                   |                         | Бесконечномерный аналог ℝⁿ    |
+-------------------+-------------------------+-------------------------------+

 Важно: элементы Lᵖ — это не функции.


 Элементы Lᵖ — это классы эквивалентности функций.
 Две функции f и g эквивалентны, если f = g почти всюду
 (т.е. отличаются лишь на множестве меры нуль).

 Следствие: Для f ∈ L² значение f(x₀) в конкретной точке не определено.

   • Можно изменить f в одной точке — это та же функция в L²
   • "f(0) = 3" не имеет смысла для элемента L²
   • Интеграл ∫f определён, а значение f(x) — нет.

 Когда можно говорить о значениях:
   • Если f непрерывна (тогда есть единственный непрерывный представитель)
   • Через теоремы вложения (Соболева): W^{1,p} ⊂ C при p > n

 Где это критично:
   • Граничные условия в PDE: u|_{∂Ω} = g требует "следа" функции
   • Дельта-функция δ(x−a) "выбирает" значение — но это не f(a).


 Единичный шар — "портрет" нормы


 Единичный шар B = {x : ‖x‖ ≤ 1} показывает геометрию нормы.
 Форма шара определяет, что норма считает "близким к нулю".

   L¹ (манхэттенская)       L² (евклидова)        L∞ (sup-норма)
   ‖x‖₁ = |x| + |y|         ‖x‖₂ = √(x²+y²)       ‖x‖_∞ = max(|x|,|y|)

          ◆                      ●●●                  ■■■■■■■
         ◆ ◆                   ●●   ●●                ■     ■
        ◆   ◆                 ●       ●               ■     ■
       ◆     ◆               ●         ●              ■     ■
      ◆-------◆             ●-----------●            ■-------■
       ◆     ◆               ●         ●              ■     ■
        ◆   ◆                 ●       ●               ■     ■
         ◆ ◆                   ●●   ●●                ■     ■
          ◆                      ●●●                  ■■■■■■■

      Ромб круг квадрат
   "Такси в Манхэттене"     "Обычное расст."      "Шахматный король"


 Интерпретация:

   • L¹: "Сколько кварталов пройти?" — сумма отклонений по осям
         Точки (1,0), (0,1), (0.5, 0.5) равноудалены от нуля.

   • L²: "Как ворона летит" — привычное евклидово расстояние
         Пифагор: диагональ √2, а не 2

   • L∞: "Худший случай" — максимальное отклонение по любой оси
         Точки (1,0), (1,1), (1, 0.5) равноудалены от нуля.


 Общий случай Lᵖ: ‖x‖_p = (|x|ᵖ + |y|ᵖ)^(1/p)

   p = 1:   ромб (острые углы)
   p = 2:   круг
   p → ∞:  квадрат

   При увеличении p шар "надувается" от ромба к квадрату через круг.

 Применение:
   • L¹ в оптимизации: даёт разреженные решения (LASSO регрессия)
   • L² в физике: энергия, наименьшие квадраты
   • L∞ в инженерии: контроль максимального отклонения


 Полнота — ключевое свойство
+------------------------+--------------------------------------------+
| ПОНЯТИЕ                | ОПРЕДЕЛЕНИЕ / Пример                       |
+------------------------+--------------------------------------------+
| Фундаментальная (Коши) | ∀ε>0 ∃N: m,n>N ⇒ ‖xₘ−xₙ‖<ε        |
| последовательность     | "Члены сближаются друг с другом"           |
+------------------------+--------------------------------------------+
| Полное пространство    | Всякая фунд. посл-ть сходится в этом пр-ве |
+------------------------+--------------------------------------------+
| Пример неполноты       | ℚ: посл-ть 3, 3.1, 3.14, 3.141. → π ∉ ℚ  |
+------------------------+--------------------------------------------+
| Пополнение             | ℚ → ℝ (добавили все пределы)               |
|                        | C[0,1] с ‖·‖₂ → L²[0,1]                    |
+------------------------+--------------------------------------------+

 Зачем нужна полнота
+--------------------------------+-------------------------------------------+
| ПРИМЕНЕНИЕ                     | ПОЧЕМУ НУЖНА ПОЛНОТА                      |
+--------------------------------+-------------------------------------------+
| Метод итераций xₙ₊₁ = f(xₙ)    | Гарантия, что предел существует           |
+--------------------------------+-------------------------------------------+
| Ряды Фурье                     | Σcₙeⁱⁿˣ сходится в L², не поточечно       |
+--------------------------------+-------------------------------------------+
| Теорема Банаха о неподв. точке | Сжатие в полном пр-ве имеет неподв. точку |
+--------------------------------+-------------------------------------------+
| Решение ДУ методом Пикара      | Итерации сходятся к решению               |
+--------------------------------+-------------------------------------------+

 Полнота vs замкнутость — не путать.


 Замкнутость — свойство подмножества (внутри какого-то пространства)
 Полнота — свойство пространства (самого по себе)

 +-----------------------------------------------------------------------+
 | Ключевой пример: ℚ (рациональные числа)                               |
 |                                                                       |
 | • ℚ замкнуто В себе (как топол. пространство)                         |
 | • ℚ не полно. (посл-ть 3, 3.1, 3.14. → π ∉ ℚ)                       |
 |                                                                       |
 | Замкнутость говорит: "содержит все свои предельные точки"             |
 | Но если предельная точка не существует в пространстве — не считается. |
 +-----------------------------------------------------------------------+

 Связь:
   • Замкнутое подмножество полного пространства — полно
   • Полное подмножество метрического пространства — замкнуто

 Пример для инженера:
   Пространство C[0,1] с нормой ‖f‖₂ = √∫|f|² — не полно.
   Предел может быть разрывной функцией (не в C[0,1]).
   Пополнение: L²[0,1] — уже полное (с интегралом Лебега).

 Почему это важно:
   С интегралом Римана пространство функций "дырявое", как ℚ.
   L² полно только с интегралом Лебега — поэтому Лебег и нужен.


 Гильбертово пространство

 Определение: Банахово + норма из скалярного произведения ‖x‖ = √⟨x,x⟩
+-------------------------------+----------------------------------------------+
| СВОЙСТВО                      | СЛЕДСТВИЕ                                    |
+-------------------------------+----------------------------------------------+
| Есть скал. произведение ⟨·,·⟩ | Можно говорить об углах, ортогональности     |
+-------------------------------+----------------------------------------------+
| Теорема Пифагора              | x⊥y ⇒ ‖x+y‖² = ‖x‖² + ‖y‖²                   |
+-------------------------------+----------------------------------------------+
| Ортогональное дополнение      | H = M ⊕ M⊥ для замкнутого M                  |
+-------------------------------+----------------------------------------------+
| Ортонормированный базис       | x = Σₙ⟨x,eₙ⟩eₙ (обобщённый ряд Фурье)        |
+-------------------------------+----------------------------------------------+
| Теорема Рисса-Фреше           | Любой функционал f(x) = ⟨x,y⟩ для единств. y |
|                               | Следствие: H ≅ H* (изоморфно двойственному)  |
+-------------------------------+----------------------------------------------+

 Операторы в гильбертовом пространстве

 Оператор T: H → H линеен, если T(αx+βy) = αTx + βTy
+-------------------+-------------------------+-------------------------------+
| ТИП               | ОПРЕДЕЛЕНИЕ             | СВОЙСТВА                      |
+-------------------+-------------------------+-------------------------------+
| Ограниченный      | ‖Tx‖ ≤ C‖x‖ для всех x  | ⟺ непрерывный                |
|                   | ‖T‖ = sup{‖Tx‖: ‖x‖=1} | Норма оператора               |
+-------------------+-------------------------+-------------------------------+
| Компактный        | Образ огр. мн-ва        | "Почти конечномерный"         |
|                   | предкомпактен           | Спектр дискретен + 0          |
+-------------------+-------------------------+-------------------------------+
| Самосопряжённый   | ⟨Tx,y⟩ = ⟨x,Ty⟩         | Собств. знач. вещественны     |
| (T* = T)          |                         | Собств. векторы ортогональны  |
+-------------------+-------------------------+-------------------------------+
| Унитарный         | ⟨Ux,Uy⟩ = ⟨x,y⟩         | Сохраняет норму и углы        |
| (U*U = I)         |                         | |λ| = 1 для собств. знач.     |
+-------------------+-------------------------+-------------------------------+
| Проектор          | P² = P                  | Если P*=P: ортогональный      |
|                   |                         | Проекция на подпространство   |
+-------------------+-------------------------+-------------------------------+

 Спектральная теория

 Спектр: σ(T) = {λ∈ℂ: (T−λI) необратим}
+-----------------+------------------------------------------------+
| ЧАСТЬ СПЕКТРА   | ОПРЕДЕЛЕНИЕ                                    |
+-----------------+------------------------------------------------+
| Точечный σₚ     | λ — собственное значение: ∃x≠0: Tx=λx          |
+-----------------+------------------------------------------------+
| Непрерывный σ_c | (T−λI) инъективен, образ плотен, но не замкнут |
+-----------------+------------------------------------------------+
| Остаточный σ_r  | (T−λI) инъективен, образ не плотен             |
+-----------------+------------------------------------------------+

 Почему спектр ≠ собственные значения (конкретный пример)


 В конечномерном случае (матрицы) спектр = собственные значения.
 В бесконечномерном случае это неверно.

 Пример: Оператор сдвига вправо на ℓ²

   S: (x₁, x₂, x₃, ...) ↦ (0, x₁, x₂, x₃, ...)

 Собственные значения: нет ни одного.
   Пусть Sx = λx. Тогда (0, x₁, x₂, ...) = (λx₁, λx₂, λx₃, ...)
   Из первой компоненты: 0 = λx₁
   Если λ ≠ 0, то x₁ = 0, значит x₂ = 0, ..., x = 0. Противоречие.
   Если λ = 0, то (0, x₁, x₂, ...) = 0, значит x = 0. Противоречие.

 Спектр: σ(S) = {λ : |λ| ≤ 1} — весь единичный диск.
   Потому что (S − λI) необратим для всех |λ| ≤ 1.
   При |λ| < 1: образ не плотен (остаточный спектр σ_r).
   При |λ| = 1: образ плотен, но не замкнут (непрерывный спектр σ_c).

 Мораль: В бесконечномерном пространстве оператор может быть необратим
 Не из-за собственных векторов, а из-за "почти собственных" направлений.

 Более простой пример: Оператор умножения Tf(x) = x·f(x) на L²[0,1]
   Собственные функции: нет (δ-функция не в L²).
   Спектр: σ(T) = [0,1] — весь отрезок (непрерывный спектр).
   Физически: это оператор координаты в квантовой механике.

 Это критично в квантовой механике: спектр энергии частицы в потенциале
 может быть непрерывным (свободная частица) или дискретным (атом).


 Спектральная теорема (для самосопр. компактного оператора)
+---------------------------------+------------------------------------------+
| УТВЕРЖДЕНИЕ                     | СЛЕДСТВИЕ                                |
+---------------------------------+------------------------------------------+
| Спектр = веществ. собств. знач. | Все λₙ ∈ ℝ                               |
| + возможно 0                    |                                          |
+---------------------------------+------------------------------------------+
| Собств. векторы — ортонорм.     | {eₙ} — базис в H                         |
| базис                           |                                          |
+---------------------------------+------------------------------------------+
| T = Σₙλₙ⟨·,eₙ⟩eₙ                | Разложение оператора по собств. векторам |
+---------------------------------+------------------------------------------+

 Почему самосопряжённость критична для физики


 Факт: Спектр самосопряжённого оператора всегда вещественный.

 Физический смысл:
   В квантовой механике наблюдаемые величины (энергия, импульс, координата)
   представлены самосопряжёнными операторами. Спектр оператора — это
   множество возможных результатов измерения.

   Энергия должна быть вещественным числом — мы не можем измерить
   "комплексную энергию". Именно поэтому гамильтониан H обязан быть
   самосопряжённым: H = H*.

   Если оператор не самосопряжённый — его спектр может быть комплексным,
   и он не описывает наблюдаемую физическую величину.

 Вывод: Самосопряжённость — это не математическая абстракция.
 Это требование физической осмысленности измерений.


 Связь с квантовой механикой
+-----------------------------+-----------------------------------------------+
| КВАНТОВАЯ МЕХАНИКА          | ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ                         |
+-----------------------------+-----------------------------------------------+
| Состояние системы           | Вектор ψ ∈ H, ‖ψ‖ = 1                        |
+-----------------------------+-----------------------------------------------+
| Наблюдаемая (энергия, и т.д.)| Самосопряжённый оператор A                   |
+-----------------------------+-----------------------------------------------+
| Возможные результаты измер. | Спектр σ(A)                                   |
+-----------------------------+-----------------------------------------------+
| Вероятность результата λ    | |⟨ψ,eλ⟩|² где Aeλ = λeλ                      |
+-----------------------------+-----------------------------------------------+
| Состояние после измерения   | Проекция на собств. подпространство          |
+-----------------------------+-----------------------------------------------+

 Конкретный пример: остывание стержня (уравнение теплопроводности)


 Задача: Металлический стержень длиной L. Концы поддерживаются при T=0.
 Начальное распределение температуры T(x,0) = f(x). Как стержень остывает?

 +-------------------------------------------------------------------------+
 |    T=0                                       T=0                        |
 |     |                                         |                         |
 |     ▼         начальное T(x,0) = f(x)         ▼                         |
 |   --█████████████████████████████████████████--                         |
 |     x=0                                     x=L                         |
 +-------------------------------------------------------------------------+

 Уравнение:
   ∂T/∂t = a·∂²T/∂x²     (a — температуропроводность)

 Граничные условия:  T(0,t) = T(L,t) = 0
 Начальное условие:  T(x,0) = f(x)

-------------------------------------------------------------------------------
 Решение через собственные функции
-------------------------------------------------------------------------------

 Шаг 1: Ищем собственные функции оператора d²/dx² с данными гран. условиями

   d²φ/dx² = λφ,  φ(0) = φ(L) = 0

   Решение: φₙ(x) = sin(nπx/L),  λₙ = −(nπ/L)²,  n = 1, 2, 3, ...

 Шаг 2: Эти функции образуют ортонормированный базис в L²[0,L].

   ⟨φₘ, φₙ⟩ = ∫₀ᴸ sin(mπx/L)·sin(nπx/L) dx = (L/2)·δₘₙ

 Шаг 3: Раскладываем начальное условие по этому базису

   f(x) = Σₙ cₙ sin(nπx/L),   cₙ = (2/L)∫₀ᴸ f(x)sin(nπx/L) dx

 Шаг 4: Каждая мода затухает независимо с экспонентой e^(λₙ·a·t)

   T(x,t) = Σₙ cₙ · e^(−a(nπ/L)²t) · sin(nπx/L)
                ↑                      ↑
           затухание               пространственная форма

-------------------------------------------------------------------------------
 Физический смысл
-------------------------------------------------------------------------------

   • Первая мода (n=1): τ₁ = L²/(π²a) — самое медленное затухание
   • Высшие моды затухают быстрее: τₙ = τ₁/n²
   • Через время ~τ₁ остаётся только первая мода (синусоида)

 Численный пример (медный стержень L=1м, a≈1.1×10⁻⁴ м²/с):
   τ₁ = 1²/(π²·1.1×10⁻⁴) ≈ 920 с ≈ 15 минут

-------------------------------------------------------------------------------

 Мораль: Функциональный анализ — не абстракция.
 Операторы, собственные функции, разложения по базису — это рабочие
 инструменты для решения уравнений теплопроводности, диффузии, колебаний.


 Важные теоремы функционального анализа
+----------------------------+----------------------------------------------+
| ТЕОРЕМА                    | ФОРМУЛИРОВКА и ПРИМЕНЕНИЕ                    |
+----------------------------+----------------------------------------------+
| Банаха о неподвижной точке | T сжимающее в полном (X,d) ⇒ ∃! x: Tx=x      |
|                            | Прим: существование решений ДУ               |
+----------------------------+----------------------------------------------+
| Хана-Банаха                | Функционал с подпр-ва продолжается на всё    |
|                            | пр-во с сохранением нормы                    |
+----------------------------+----------------------------------------------+
| Банаха-Штейнхауза          | Поточечно огр. семейство операторов          |
| (о равн. ограниченности)   | равномерно ограничено                        |
+----------------------------+----------------------------------------------+
| Об открытом отображении    | Сюръективный огр. оператор — открытое отобр. |
+----------------------------+----------------------------------------------+
| О замкнутом графике        | Оператор с замкнутым графиком ограничен      |
+----------------------------+----------------------------------------------+

 Слабая сходимость — ключ к бесконечномерности


 В ℝⁿ есть только один способ сходимости. В бесконечномерных — много.

 +--------------------+----------------------------------------------+
 | ТИП СХОДИМОСТИ     | ОПРЕДЕЛЕНИЕ                                  |
 +--------------------+----------------------------------------------+
 | СИЛЬНАЯ (по норме) | xₙ → x означает ‖xₙ − x‖ → 0                 |
 |                    | "Расстояние до предела стремится к нулю"     |
 +--------------------+----------------------------------------------+
 | СЛАБАЯ             | xₙ ⇀ x означает f(xₙ) → f(x) для всех f ∈ X* |
 |                    | "Все функционалы сходятся"                   |
 +--------------------+----------------------------------------------+
 | СЛАБАЯ-*           | fₙ ⇀* f означает fₙ(x) → f(x) для всех x ∈ X |
 | (в сопряжённом)    | "Поточечная сходимость функционалов"         |
 +--------------------+----------------------------------------------+

 Соотношения:
   Сильная ⇒ Слабая ⇒ Слабая-* (обратные неверны)

 Ключевой пример: eₙ = (0,...,0,1,0,...) в ℓ²

   • ‖eₙ − eₘ‖ = √2 для n ≠ m — нет сильного предела
   • НО: eₙ ⇀ 0 слабо. (для любого f ∈ (ℓ²)*, f(eₙ) → 0)

 Зачем нужна слабая сходимость:

   • Единичный шар не компактен в сильной топологии
   • но компактен в слабой топологии. (теорема Банаха-Алаоглу)
   • Это позволяет находить минимумы функционалов

 Применение в PDE:
   Последовательность приближённых решений uₙ может не иметь сильного
   Предела, но иметь слабый предел u — это и есть слабое решение.


 Теорема Рисса о представлении


 Есть две теоремы Рисса. Обе фундаментальны.

-------------------------------------------------------------------------------
 Рисс-Фреше (для гильбертовых пространств)
-------------------------------------------------------------------------------

   Любой непрерывный линейный функционал f: H → ℝ на гильбертовом
   пространстве H имеет вид:

           f(x) = ⟨x, y⟩   для единственного y ∈ H

   Следствие: H ≅ H* (гильбертово пространство изоморфно своему
              сопряжённому). Это не верно для общих банаховых.

-------------------------------------------------------------------------------
 Рисс-Марков-Какутани (для мер)
-------------------------------------------------------------------------------

   Любой положительный линейный функционал I: C(X) → ℝ на пространстве
   непрерывных функций на компакте X представляется интегралом:

           I(f) = ∫_X f dμ   для единственной меры μ

   Смысл: Каждый способ "взвешенного усреднения" — это интеграл.

   Применение: Если есть оператор, сопоставляющий функции число
   (и сохраняющий линейность и порядок) — это интеграл по некоторой мере.


-------------------------------------------------------------------------------
===============================================================================
Мера и интеграл Лебега — правильное понятие «размера»
===============================================================================

Функанализ использует интегралы повсюду: норма ‖f‖ = √∫|f|², скалярное
произведение ⟨f,g⟩ = ∫fg. Но какой интеграл? Интеграл Римана ломается на
пределах — нельзя менять местами lim и ∫.

Интеграл Лебега решает эту проблему. Он основан на понятии меры — более
общем способе измерять "размер" множеств. Это фундамент теории вероятностей
и современного анализа.

 Мера как взгляд на пространство


 Мера отвечает на вопрос: какой "размер" имеет подмножество пространства?

   • На прямой ℝ: мера отрезка = его длина
   • На плоскости ℝ²: мера области = её площадь
   • В ℝ³: мера тела = его объём
   • В пространстве функций: мера = вероятность

 Мера Лебега — это "правильный" способ измерять размер множеств,
 который работает даже для очень сложных (фрактальных, разрывных) множеств.
 Без неё пространства L² и вероятность не имели бы строгого смысла.

 Связь с топологией — размерность Хаусдорфа:
   Фракталы имеют дробную размерность. Множество Кантора ⊂ [0,1]:
   • Топологическая размерность = 0 (тотально несвязно)
   • Размерность Хаусдорфа = log(2)/log(3) ≈ 0.631
   Это мера "сложности" множества — сколько места оно занимает.
   Береговая линия Британии: dim_H ≈ 1.25 (больше линии, меньше плоскости).


 Главная причина перехода к Лебегу (для инженера)


           Интеграл Римана ломается на пределах.
           Интеграл Лебега — нет.

 Это не абстракция. Это критично для:

   • Рядов Фурье: lim∫fₙ = ∫lim fₙ — нужна теорема Лебега
   • Решения PDE: предел приближённых решений → решение
   • Вероятности: E[lim Xₙ] = lim E[Xₙ] — мажорируемая сходимость

 Функция Дирихле (1 на ℚ, 0 на ℝ\ℚ) — искусственный пример.
 Реальная причина: нужно менять местами предел и интеграл.
 По Риману — нельзя. По Лебегу — можно (при определённых условиях).


 Проблема интеграла Римана
+-----------------------+-------------------------------------+
| ПРОБЛЕМА              | ОПИСАНИЕ                            |
+-----------------------+-------------------------------------+
| Функция Дирихле       | f(x) = 1 если x∈ℚ, иначе 0          |
|                       | не интегрируема по Риману           |
|                       | Хотя интуитивно: ℚ "занимает 0%"    |
+-----------------------+-------------------------------------+
| Предел не сохраняет   | lim fₙ может быть не интегрируемой, |
| интегрируемость       | даже если все fₙ интегрируемы       |
+-----------------------+-------------------------------------+
| Нельзя менять ∫ и lim | lim∫fₙ ≠ ∫lim fₙ в общем случае     |
+-----------------------+-------------------------------------+

 Мера — аксиоматика

 Мера μ: Σ → [0,+∞] на σ-алгебре Σ подмножеств X
+-------------------+----------------------------------------+
| АКСИОМА           | СМЫСЛ                                  |
+-------------------+----------------------------------------+
| μ(∅) = 0          | Пустое множество имеет нулевой размер  |
+-------------------+----------------------------------------+
| μ(⋃ₙAₙ) = Σₙμ(Aₙ) | Счётная аддитивность (для дизъюнктных) |
| (Aᵢ∩Aⱼ=∅)         | Размер объединения = сумма размеров    |
+-------------------+----------------------------------------+

 Σ-алгебра — семейство "измеримых" множеств
+----------------------------------+-------------------+
| СВОЙСТВО                         | ФОРМУЛА           |
+----------------------------------+-------------------+
| Замкнуто относительно дополнений | A ∈ Σ ⇒ X\A ∈ Σ   |
+----------------------------------+-------------------+
| Замкнуто относительно счётных    | Aₙ ∈ Σ ⇒ ⋃ₙAₙ ∈ Σ |
| объединений                      |                   |
+----------------------------------+-------------------+
| Содержит всё пространство        | X ∈ Σ             |
+----------------------------------+-------------------+

 Почему именно σ-алгебра? (ключевой вопрос)


 Почему нельзя ограничиться конечными объединениями (обычной алгеброй)?

 Проблема: Предел измеримых множеств должен быть измерим.

   Пусть Aₙ = [0, 1 − 1/n]. Каждое Aₙ — интервал с длиной (1 − 1/n).
   Предел: ⋃ₙAₙ = [0, 1) — тоже должен иметь меру.

   Если алгебра замкнута только относительно конечных объединений,
   то [0, 1) = ⋃_{n=1}^∞ Aₙ может оказаться неизмеримым.

 Решение: Требуем замкнутость относительно счётных объединений.

 +------------------+---------------------------+
 | СТРУКТУРА        | ЗАМКНУТА ОТНОСИТЕЛЬНО     |
 +------------------+---------------------------+
 | Алгебра множеств | Конечных ∪, ∩, дополнений |
 | σ-алгебра        | СЧЁТНЫХ ∪, ∩, дополнений  |
 +------------------+---------------------------+

 σ — общепринятый префикс для "счётных" операций (по смыслу: σ-аддитивность,
 σ-алгебра, σ-компактность — всё допускает счётные операции).

 Глубинная причина:
   Анализ работает с пределами, а предел — это счётная конструкция.
   Чтобы интегрирование и предел были совместимы, нужна σ-алгебра.
   Теоремы о сходимости (Леви, Лебега) требуют счётной аддитивности.


 Мера Лебега на ℝⁿ
+--------------------------+-----------------------------------------+
| МНОЖЕСТВО                | МЕРА ЛЕБЕГА λ                           |
+--------------------------+-----------------------------------------+
| Интервал (a,b) ⊂ ℝ       | b − a (длина)                           |
+--------------------------+-----------------------------------------+
| Прямоугольник в ℝ²       | ширина × высота (площадь)               |
+--------------------------+-----------------------------------------+
| Параллелепипед в ℝ³      | a·b·c (объём)                           |
+--------------------------+-----------------------------------------+
| Одна точка {x}           | 0                                       |
+--------------------------+-----------------------------------------+
| Счётное множество (ℚ, ℤ) | 0 (мера нуль)                          |
+--------------------------+-----------------------------------------+
| Канторово множество C    | 0, хотя C несчётно.                     |
+--------------------------+-----------------------------------------+
| Неизмеримые множества    | Существуют (Витали), но "неестественны" |
+--------------------------+-----------------------------------------+

 Интеграл Лебега
+-----------------+----------------------------------+
| СРАВНЕНИЕ       | РИМАН vs ЛЕБЕГ                   |
+-----------------+----------------------------------+
| Разбиение       | Риман: область определения [a,b] |
|                 | Лебег: область значений ℝ        |
+-----------------+----------------------------------+
| Сумма           | Риман: Σf(xᵢ)·Δxᵢ                |
|                 | Лебег: Σyⱼ·μ({x: f(x)≈yⱼ})       |
+-----------------+----------------------------------+
| Функция Дирихле | Риман: не интегрируема           |
|                 | Лебег: ∫f dλ = 1·0 + 0·1 = 0     |
+-----------------+----------------------------------+

 Построение интеграла Лебега
+---------------------+------------------------------------+
| ШАГ                 | ОПРЕДЕЛЕНИЕ                        |
+---------------------+------------------------------------+
| 1. Простая функция  | s = Σcₖ·χ_{Aₖ} (ступенчатая)       |
+---------------------+------------------------------------+
| 2. Интеграл простой | ∫s dμ = Σcₖ·μ(Aₖ)                  |
+---------------------+------------------------------------+
| 3. Интеграл f ≥ 0   | ∫f dμ = sup{∫s dμ: s простая, s≤f} |
+---------------------+------------------------------------+
| 4. Общий интеграл   | ∫f dμ = ∫f⁺ dμ − ∫f⁻ dμ            |
|                     | где f⁺=max(f,0), f⁻=max(−f,0)      |
+---------------------+------------------------------------+

 Теоремы о сходимости — главное преимущество Лебега
+-----------------------------+-----------------------------------------------+
| ТЕОРЕМА                     | ФОРМУЛИРОВКА                                  |
+-----------------------------+-----------------------------------------------+
| Монотонной сходимости       | fₙ↑f (монотонно) ⇒ ∫fₙ → ∫f                  |
| (Б. Леви)                   |                                               |
+-----------------------------+-----------------------------------------------+
| Мажорируемой сходимости     | |fₙ|≤g, ∫g<∞, fₙ→f п.в. ⇒ ∫fₙ→∫f           |
| (Лебега)                    | Также: ∫|fₙ−f|→0                             |
+-----------------------------+-----------------------------------------------+
| Фату                        | fₙ≥0 ⇒ ∫(lim inf fₙ) ≤ lim inf ∫fₙ          |
+-----------------------------+-----------------------------------------------+
| "п.в." (почти всюду)        | = кроме множества меры нуль                   |
+-----------------------------+-----------------------------------------------+

 Почему эти теоремы важны
+----------------------------+------------------------------------------+
| СИТУАЦИЯ                   | СЛЕДСТВИЕ                                |
+----------------------------+------------------------------------------+
| Ряды функций Σfₙ           | Можно интегрировать почленно             |
+----------------------------+------------------------------------------+
| Дифф. под знаком интеграла | d/dt∫f(x,t)dx = ∫∂f/∂t dx (при условиях) |
+----------------------------+------------------------------------------+
| Для Римана не работают.    | Это главное преимущество Лебега          |
+----------------------------+------------------------------------------+

 Типы сходимости — важное различие


 В теории меры есть несколько типов сходимости, и они не эквивалентны.

 +-------------------+-------------------------+-------------------------+
 | ТИП СХОДИМОСТИ    | ОПРЕДЕЛЕНИЕ             | ЧТО ОЗНАЧАЕТ            |
 +-------------------+-------------------------+-------------------------+
 | Поточечная        | ∀x: fₙ(x) → f(x)        | В каждой точке          |
 |                   |                         | отдельно                |
 +-------------------+-------------------------+-------------------------+
 | Почти всюду       | fₙ(x) → f(x) для        | Поточечно, кроме        |
 | (п.в.)            | почти всех x            | множества меры 0        |
 +-------------------+-------------------------+-------------------------+
 | Равномерная       | sup|fₙ(x)−f(x)| → 0     | Одинаково быстро        |
 |                   |  x                      | везде                   |
 +-------------------+-------------------------+-------------------------+
 | По мере           | μ({|fₙ−f| > ε}) → 0     | Мера "плохого"          |
 |                   | для всех ε > 0          | множества → 0           |
 +-------------------+-------------------------+-------------------------+
 | В Lᵖ              | ∫|fₙ−f|ᵖ dμ → 0         | Интегральная            |
 |                   |                         | ошибка → 0              |
 +-------------------+-------------------------+-------------------------+

 Иерархия (для конечной меры):

   Равномерная ⇒ Поточечная ⇒ Почти всюду ⇒ По мере
       ↓
   В L∞        В Lᵖ ⇒ По мере (но НЕ почти всюду)

 Контрпример: Сходимость по мере не влечёт сходимость почти всюду.
    "Бегающий горб": fₙ = χ_{[k/2ᵐ, (k+1)/2ᵐ]} на [0,1]
    Сходится по мере к 0, но в каждой точке подпоследовательность = 1.


 Пространства Lᵖ

 Определение: Lᵖ(X,μ) = {f: ∫|f|ᵖdμ < ∞} / {f=0 п.в.}
+-----------+-----------------------+-----------------------------------------+
| p         | НОРМА                 | СВОЙСТВА и ПРИМЕНЕНИЯ                   |
+-----------+-----------------------+-----------------------------------------+
| p = 1     | ‖f‖₁ = ∫|f|           | Интегрируемые функции                   |
+-----------+-----------------------+-----------------------------------------+
| p = 2     | ‖f‖₂ = √(∫|f|²)       | Гильбертово. Квант. механика, Фурье     |
|           | ⟨f,g⟩ = ∫fg̅          | Скалярное произведение                  |
+-----------+-----------------------+-----------------------------------------+
| p = ∞     | ‖f‖_∞ = ess sup|f|    | Существенно ограниченные функции        |
+-----------+-----------------------+-----------------------------------------+

 Ключевые неравенства и теоремы
+-------------------------+-------------------------------------+
| РЕЗУЛЬТАТ               | ФОРМУЛИРОВКА                        |
+-------------------------+-------------------------------------+
| Неравенство Гёльдера    | ‖fg‖₁ ≤ ‖f‖_p·‖g‖_q где 1/p+1/q=1   |
+-------------------------+-------------------------------------+
| Неравенство Минковского | ‖f+g‖_p ≤ ‖f‖_p + ‖g‖_p             |
+-------------------------+-------------------------------------+
| Теорема Рисса-Фишера    | Lᵖ — полное (банахово) пространство |
+-------------------------+-------------------------------------+

 Прикладной пример: тепловой поток через неоднородную стену


 Задача: Стена толщиной L с неоднородной структурой. Теплопроводность
 k(x) сильно меняется по толщине (разные материалы, включения, трещины).

       T₁                                    T₂
-------------------------------------------------------------------------------
       |░░░|████|░░|████████|░░░░░░|██|░░░░|
       |░░░|████|░░|████████|░░░░░░|██|░░░░|
-------------------------------------------------------------------------------
       x=0                                  x=L

       ░░░ = утеплитель (k = 0.05 Вт/(м·К))
       ███ = бетон (k = 1.5 Вт/(м·К))
       Трещины — разрывы в структуре

 Тепловое сопротивление:

   R = ∫₀ᴸ dx/k(x)     [м²·К/Вт]

 Проблема: k(x) — разрывная функция с возможными "патологиями".

-------------------------------------------------------------------------------
 Почему нужна мера Лебега
-------------------------------------------------------------------------------

 1. Разрывы не мешают:
    k(x) может иметь конечное число разрывов (границы слоёв).
    Интеграл Лебега это "не замечает" — множество точек разрыва
    имеет меру нуль.

 2. Трещины = множество меры нуль:
    Микротрещины — это "тонкие" области с k → ∞ (воздух).
    Если их совокупная "толщина" = 0, они не влияют на интеграл.

 3. Можно менять порядок интегрирования:
    При расчёте 2D/3D теплопереноса (интегралы по площади, объёму)
    теорема Фубини гарантирует: ∫∫ = ∫(∫).

-------------------------------------------------------------------------------
 Численный пример
-------------------------------------------------------------------------------

 Стена: 3 слоя общей толщиной 40 см

   • Штукатурка: 2 см,  k = 0.8 Вт/(м·К)  →  R₁ = 0.02/0.8 = 0.025
   • Кирпич:    25 см, k = 0.7 Вт/(м·К)  →  R₂ = 0.25/0.7 = 0.357
   • Утеплитель: 10 см, k = 0.04 Вт/(м·К) →  R₃ = 0.10/0.04 = 2.500
   • + 3 микротрещины (суммарно 0.5 мм)  →  R = 0 (мера нуль)

   R_total = ∫₀⁰·⁴⁰ dx/k(x) = R₁ + R₂ + R₃ = 2.88 м²·К/Вт

   Тепловой поток: q = ΔT/R = (20−(−10))/2.88 = 10.4 Вт/м²

-------------------------------------------------------------------------------

 Мораль: Мера Лебега позволяет интегрировать "плохие" функции.
 Разрывы, скачки, сингулярности на множествах меры нуль — не проблема.
 Для инженера: можно не думать о математических тонкостях при расчётах.
 Интеграл существует для любой "разумной" физической величины.


-------------------------------------------------------------------------------
Меры — обобщение понятия "размер"
-------------------------------------------------------------------------------

 Идея меры


 Мера = способ присвоить "размер" множествам

 Длина, площадь, объём, вероятность — всё это примеры мер.

 Мера μ: множества → числа ≥ 0 (или +∞)


 Аксиомы меры


 1. μ(∅) = 0                     Пустое множество имеет нулевой размер

 2. μ(A) ≥ 0                     Размер неотрицателен

 3. σ-аддитивность:              Размер объединения непересекающихся =
    μ(⊔ᵢAᵢ) = Σᵢ μ(Aᵢ)          сумма размеров
    (для счётного числа)


 Примеры мер
+----------------------------+------------------------------------------------+
| МЕРА                       | ОПИСАНИЕ                                       |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Мера Лебега на ℝⁿ          | Обычный n-мерный объём                         |
|                            | μ([a,b]) = b − a  (длина отрезка)              |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Считающая мера             | μ(A) = |A| (число элементов)                   |
|                            | На ℤ, на конечных множествах                   |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Вероятностная мера         | μ(Ω) = 1, μ(A) = P(A)                          |
|                            | Мера всего = 1                                 |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Мера Дирака δₓ             | δₓ(A) = 1 если x ∈ A, иначе 0                  |
|                            | "Сосредоточена в точке x"                      |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Мера Хаара                 | Инвариантна относительно сдвигов              |
|                            | На группах Ли (объём в пространстве группы)    |
|                            |                                                |
+----------------------------+------------------------------------------------+

 Интеграл Лебега


 Обычный интеграл Римана: разбиваем по x, суммируем f(xᵢ)·Δx

 Интеграл Лебега: разбиваем по y, суммируем y·μ({x: f(x) ≈ y})

 Преимущества:
   • Можно интегрировать более "плохие" функции
   • Теоремы о предельном переходе под знаком интеграла
   • Естественная связь с теорией вероятностей

 Формула: ∫f dμ = ∫₀^∞ μ({x: f(x) > t}) dt  (для f ≥ 0)


 Множества меры нуль


 Множество A имеет меру нуль: μ(A) = 0

 Примеры (в смысле меры Лебега на ℝ):
   • Любая точка {x}
   • Любое счётное множество (ℚ, ℤ, ℕ)
   • Канторово множество (несчётное, но меры 0!)

 Парадокс: ℚ плотно в ℝ, но μ(ℚ) = 0, а μ(ℝ\ℚ) = ∞

 "Почти всюду" = "кроме множества меры нуль"


 Мера и пространства


 Мера — это способ измерять размер на пространстве.

 Разные пространства — разные естественные меры:
   • На ℝⁿ: мера Лебега (обычный объём)
   • На группе Ли: мера Хаара (инвариантна при сдвигах)
   • На многообразии: мера, индуцированная метрикой

 Интеграл — это "суммирование по пространству":
   ∫_M f dμ = "среднее значение f с учётом меры"

 Вероятностное пространство = пространство + мера с μ(Ω) = 1


-------------------------------------------------------------------------------
===============================================================================
Дифференциальные уравнения — как составлять
===============================================================================

 Главный принцип


 ДУ записываются не из воздуха. Они основаны на законах сохранения.

 (А законы сохранения, по теореме Нётер, следуют из симметрий)

 Алгоритм составления:

   1. Объект      → Что изучаем? (тело, жидкость, поле)
   2. Процесс     → Что происходит? (течёт, нагревается, движется)
   3. Элем. объём → Выделить dx, dy, dz, dt
   4. Сохранение  → Что не меняется? (масса, энергия, импульс)
   5. Баланс      → Приток − Отток = Изменение → ДУ.


 Примеры: закон сохранения → уравнение
+----------------------+-------------------------------------+
| ЗАКОН СОХРАНЕНИЯ     | УРАВНЕНИЕ                           |
+----------------------+-------------------------------------+
| Сохранение массы     | ∂ρ/∂t + ∇·(ρv) = 0  (неразрывность) |
+----------------------+-------------------------------------+
| Сохранение энергии   | ∂T/∂t = α∇²T  (теплопроводность)    |
+----------------------+-------------------------------------+
| Сохранение импульса  | Уравнения Навье-Стокса              |
+----------------------+-------------------------------------+
| Сохранение заряда    | ∂ρ/∂t + ∇·j = 0                     |
+----------------------+-------------------------------------+
| Второй закон Ньютона | m(d²x/dt²) = F                      |
+----------------------+-------------------------------------+

 Классификация уравнений в частных производных
+-----------------+-------------------------------------+
| ТИП             | ПРИМЕР и ФИЗИКА                     |
+-----------------+-------------------------------------+
|                 |                                     |
| Эллиптический   | ∇²u = f  (уравнение Пуассона)       |
|                 | Стационарные задачи, электростатика |
|                 |                                     |
+-----------------+-------------------------------------+
|                 |                                     |
| Параболический  | ∂u/∂t = α∇²u  (теплопроводность)    |
|                 | Диффузия, выравнивание              |
|                 |                                     |
+-----------------+-------------------------------------+
|                 |                                     |
| Гиперболический | ∂²u/∂t² = c²∇²u  (волновое)         |
|                 | Распространение волн                |
|                 |                                     |
+-----------------+-------------------------------------+

 Практический факт


 Практически любое ДУ (Навье-Стокса, Максвелла, теплопроводность)
 можно численно решить в Excel.

   • Каждая ячейка = значение в одной точке сетки
   • Формула ячейки = ссылки на соседей (конечные разности)
   • Граничные условия = константы на краях
   • Итерации → решение

 Это метод конечных разностей в простейшей форме.


-------------------------------------------------------------------------------
Заключение
-------------------------------------------------------------------------------

 Центральная идея документа


 Математика — это язык пространств.

 Пространство = множество + структура (способ связать точки).

   • Топология изучает форму пространства (дырки, связность)
   • Алгебра изучает симметрии пространства (группы преобразований)
   • Анализ изучает функции на пространстве (изменение, экстремумы)
   • Геометрия изучает измерения в пространстве (расстояния, кривизна)

 Функторы переводят между областями, сохраняя структуру.


 Ключевые факты по разделам — минимум, который нужно знать


 Ниже — не вопросы, а ответы. Если что-то непонятно, вернитесь к разделу.


 Логика

   "Из ложного следует что угодно" (F → P = T для любого P):
   Импликация P → Q ложна только когда P истинно, а Q ложно.
   Если P ложно, то P → Q истинно при любом Q.
   Аналогия: "Если я миллионер, куплю вам остров" — не вру,
   потому что я не миллионер.


 Множества

   Биекция ℕ ↔ ℤ:  f(n) = n/2 если n чётное, −(n+1)/2 если нечётное
                   0 ↦ 0, 1 ↦ −1, 2 ↦ 1, 3 ↦ −2, 4 ↦ 2, ...

   Почему |ℕ| < |ℝ|:  Диагональный аргумент Кантора.
   Предположим f: ℕ → [0,1] — биекция. Построим число x, которое
   отличается от f(n) в n-м знаке: x ∉ Im(f). Противоречие.


 Группы

   Почему (ab)⁻¹ = b⁻¹a⁻¹:
   Проверка: (ab)(b⁻¹a⁻¹) = a(bb⁻¹)a⁻¹ = aea⁻¹ = aa⁻¹ = e ✓
   Пример: надел носки, потом ботинки → снять ботинки, потом носки.

   Ядро гомоморфизма φ: G → H:
   ker φ = {g ∈ G : φ(g) = eₕ} — всё, что переходит в нейтральный.
   Пример: φ: ℤ → ℤ/6, k ↦ k mod 6. Тогда ker φ = 6ℤ = {.,−6,0,6,12,.}


 Топология

   Множество, которое ни открыто, ни закрыто:
   [0, 1) в ℝ. Содержит граничную точку 0, но не содержит 1.

   Почему кружка ≅ бублик:
   Обе поверхности имеют одну дырку (род 1). Можно непрерывно
   деформировать одну в другую, не разрывая и не склеивая.

   π₁(S¹) = ℤ:  Петли на окружности классифицируются числом обмоток.
   π₁(S²) = 0:  Любая петля на сфере стягивается в точку.


 Линейная алгебра

   Почему det(AB) = det(A)det(B), но det(A+B) ≠ det(A)+det(B):
   Определитель — мультипликативен, но НЕ аддитивен.
   Контрпример: A = B = I (единичная). det(I) = 1.
   det(I+I) = det(2I) = 2ⁿ ≠ 1+1 = 2  (для n > 1).

   Вектор, который не "стрелка":
   Функция f(x) = x² — вектор в пространстве C[0,1].
   (f+g)(x) = f(x)+g(x), (αf)(x) = αf(x) — аксиомы выполняются.


 Многообразия

   Зачем несколько карт для сферы:
   S² компактна, ℝ² нет. Гомеоморфизм сохраняет компактность.
   Значит, S² ≢ ℝ². Нужно минимум 2 карты (стереографические проекции).

   Что живёт в TₚM:
   Касательные векторы = скорости кривых через p = направления движения.
   TₚM ≅ ℝⁿ, но это разные пространства для разных p.
   v ∈ TₚM и w ∈ TᵧM нельзя сложить напрямую — нужна связность.


 Дифференциальные формы

   Почему d² = 0 связано с ∂² = 0:
   Это двойственные утверждения. ∂ действует на цепи (области),
   d действует на формы (интегранды). Теорема Стокса: ∫_{∂M} ω = ∫_M dω.

   ∂²M = ∅ (граница границы пуста) ⟷ d²ω = 0 (внешняя производная
   дважды даёт ноль). Это один и тот же факт с двух сторон.

   Стокс объединяет классику:
   • dim=1: ∫ₐᵇ f'dx = f(b)−f(a)        (Ньютон-Лейбниц)
   • dim=2: ∫∫ rot F·dA = ∮ F·dr       (Грин/Стокс)
   • dim=3: ∫∫∫ div F dV = ∯ F·dS      (Гаусс-Остроградский)


 Категории

   Группа как категория с одним объектом:
   • Один объект: ●
   • Морфизмы: элементы группы g ∈ G (стрелки ● → ●)
   • Композиция: групповая операция g ∘ h = gh
   • Тождественный морфизм: нейтральный элемент e
   • Все морфизмы обратимы (это и значит "группа".)

   Пример функтора: π₁: Top* → Grp
   • Объекты: пространства с отмеченной точкой → группы
   • Морфизмы: непрерывные отображения → гомоморфизмы групп
   • Композиция сохраняется: π₁(f ∘ g) = π₁(f) ∘ π₁(g)

|                                                                             |
| Главный критерий понимания:                                                 |
|                                                                             |
| Вы понимаете математику, когда видите один паттерн в разных разделах:      |
|                                                                             |
|   ker φ (группы) = ker T (лин.алг.) = ker d (формы) = "что схлопывается"   |
|   G/ker φ ≅ Im φ — везде одна и та же теорема об изоморфизме.              |
|                                                                             |

Комплексные числа мы встретили в Части II как алгебраическую конструкцию.
Но анализ на ℂ — производные, интегралы, ряды — это территория Части III.
И здесь обнаруживается нечто удивительное.

===============================================================================
Комплексный анализ — магия голоморфных функций
===============================================================================

Комплексные числа — это алгебра. Но когда мы начинаем
дифференцировать и интегрировать функции f: ℂ → ℂ, происходит чудо.

 Голоморфность = комплексная дифференцируемость


 Функция f: ℂ → ℂ голоморфна в точке z₀, если существует предел:

              f(z₀ + h) − f(z₀)
   f'(z₀) = lim ---------------     (h ∈ ℂ, h → 0 с любого направления)
            h→0        h

 Это гораздо сильнее, чем дифференцируемость в ℝ².

 Условия Коши-Римана:
   Если f(x + iy) = u(x,y) + iv(x,y), то:

   ∂u/∂x = ∂v/∂y    и    ∂u/∂y = −∂v/∂x

   Эти два уравнения связывают Re и Im части голоморфной функции.

-------------------------------------------------------------------------------
 Почему голоморфность — это магия
-------------------------------------------------------------------------------

 Если f голоморфна, то автоматически:

   • f бесконечно дифференцируема (все производные существуют)
   • f аналитична (раскладывается в степенной ряд)
   • f определяется своими значениями на любой кривой
   • Интеграл по замкнутому контуру = 0 (если внутри нет особенностей)

 В ℝ: дифференцируемость f в точке не гарантирует существование f''
      (и даже непрерывность f'). В ℂ: одна производная → бесконечно много.

 Почему так? Условия Коши-Римана — это система уравнений, которая
 "распространяет" информацию о функции во все стороны.

-------------------------------------------------------------------------------
 Визуализация: как "выглядят" комплексные функции
-------------------------------------------------------------------------------

 Комплексная функция f: ℂ → ℂ — это отображение плоскости в плоскость.
 Это 4D объект (2D вход + 2D выход), его сложно визуализировать напрямую.

 Метод: деформация сетки

   Рисуем сетку в z-плоскости, смотрим куда она переходит в w-плоскости.

   z-плоскость              w = z²               w-плоскость

   | | | | |                                    ╲ | ╱
   -+-+-+-+-+-        ------------▶              -+-
   | | | | |                                    ╱ | ╲
   -+-+-+-+-+-
   | | | | |              Квадраты → криволинейные четырёхугольники
                          Прямые углы → прямые углы (конформность)

 Примеры отображений

 +---------------------+-------------------------------------------------+
 | ФУНКЦИЯ             | ЧТО ВИДИМ НА КАРТИНКЕ                           |
 +---------------------+-------------------------------------------------+
 | f(z) = z            | Тождество — сетка не меняется                   |
 +---------------------+-------------------------------------------------+
 | f(z) = z²           | Удвоение углов: луч θ → луч 2θ                  |
 |                     | Окружность |z|=r → окружность |w|=r²            |
 +---------------------+-------------------------------------------------+
 | f(z) = eᶻ           | Вертикаль x=const → окружность |w|=eˣ           |
 |                     | Горизонталь y=const → луч arg(w)=y              |
 |                     | Полоса 0 < Im(z) < 2π → вся плоскость (.) |
 +---------------------+-------------------------------------------------+
 | f(z) = 1/z          | Инверсия: большое ↔ малое                       |
 |                     | |z|>1 → |w|<1, углы меняют знак           |
 +---------------------+-------------------------------------------------+

-------------------------------------------------------------------------------
 Конформность — главное свойство голоморфных функций
-------------------------------------------------------------------------------

 Голоморфная функция f(z) сохраняет углы в точках, где f'(z) ≠ 0.

 Что это значит:

   • Две кривые пересекаются под углом α
   • Их образы пересекаются под тем же углом α
   • Бесконечно малые круги → бесконечно малые круги (не эллипсы)

 Локально голоморфная функция — это вращение + растяжение:

   f(z) ≈ f(z₀) + f'(z₀)·(z − z₀)

   • Множитель f'(z₀) = |f'|·eⁱᶿ
   • |f'| — коэффициент растяжения
   • θ = arg(f') — угол поворота

 Визуально: Маленькие квадратики сетки → маленькие квадратики,
            но повёрнутые и масштабированные (не перекошенные)

 Исключение: В точках где f'(z) = 0 (критические точки)
    углы могут умножаться. Для f(z) = zⁿ в нуле: угол × n.

-------------------------------------------------------------------------------
 Интегральная теорема Коши
-------------------------------------------------------------------------------

 Если f голоморфна внутри и на замкнутом контуре γ:

   ∮_γ f(z) dz = 0

 Следствие (Интегральная формула Коши):

               ∮   f(ζ)
   f(z) = ----- ·  ------- dζ
          2πi   γ  ζ − z

   Значение функции внутри контура определяется значениями на контуре.
   Это как если бы температура внутри комнаты определялась только стенами.

-------------------------------------------------------------------------------
 Вычеты — техника вычисления интегралов
-------------------------------------------------------------------------------

 Если f имеет изолированную особенность в точке z₀:

   f(z) = ... + a₋₂/(z−z₀)² + a₋₁/(z−z₀) + a₀ + a₁(z−z₀) + ...
                               ↑
                          Вычет = a₋₁

 Теорема о вычетах:

   ∮_γ f(z) dz = 2πi · Σ Res(f, zₖ)
                       zₖ внутри γ

 Применение: Вычисление вещественных интегралов.

   ∫_{−∞}^{∞} dx/(1+x²) = π    (замыкаем контур в верхней полуплоскости)

   Многие интегралы, невозможные в ℝ, тривиальны в ℂ.


 Связь с топологией


 Индекс обмотки (winding number):
   Сколько раз кривая γ обходит вокруг точки z₀?

               ∮    dz
   n(γ, z₀) = --- ·  ------- = целое число.
             2πi  γ  z − z₀

   Это связывает комплексный анализ с алгебраической топологией (π₁).

 Пример: Доказательство Основной теоремы алгебры (каждый многочлен
 над ℂ имеет корень) использует индекс обмотки.

-------------------------------------------------------------------------------
 Комплексный потенциал — гидро- и аэродинамика
-------------------------------------------------------------------------------

 Одно из самых красивых приложений комплексного анализа — потенциальное
 Течение идеальной жидкости (или газа при малых скоростях).

-------------------------------------------------------------------------------
 Зачем это нужно
-------------------------------------------------------------------------------

 Задача: Найти, как течёт жидкость вокруг препятствия.
 Проблема: Уравнения Навье-Стокса сложны, нет аналитических решений.
 Упрощение: Если жидкость "идеальная" (без вязкости) и течение без вихрей,
            задача сводится к одной функции комплексного переменного.

-------------------------------------------------------------------------------
 Шаг 1: Что такое потенциальное течение
-------------------------------------------------------------------------------

 "Безвихревое" означает: жидкость не вращается локально.
 Представьте кораблик-спичку на воде:
   • В обычном течении: спичка плывёт и крутится вокруг своей оси
   • В безвихревом: спичка плывёт, но НЕ крутится (всегда смотрит на север)

 Математически: rot v = 0, что означает v = ∇φ для некоторой функции φ.
 Φ называется потенциал скорости.

 Для несжимаемой жидкости (div v = 0):
   ∇²φ = 0  ← Уравнение Лапласа.

-------------------------------------------------------------------------------
 Шаг 2: Почему комплексные числа помогают
-------------------------------------------------------------------------------

 Ключевой факт: Если w(z) = φ + iψ голоморфна, то:
   ∂φ/∂x = ∂ψ/∂y   и   ∂φ/∂y = −∂ψ/∂x  (условия Коши-Римана)

 Следствие: ∂²φ/∂x² + ∂²φ/∂y² = 0  ← это и есть уравнение Лапласа.

 Вывод: Любая голоморфная функция w(z) автоматически даёт решение
        уравнения течения. Не нужно решать дифференциальные уравнения.

-------------------------------------------------------------------------------
 Шаг 3: что означают φ и ψ физически
-------------------------------------------------------------------------------

 Φ — потенциал скорости:
   Скорость = градиент потенциала: vₓ = ∂φ/∂x, vᵧ = ∂φ/∂y
   Линии φ = const — эквипотенциали (как линии высот на карте)

 Ψ — функция тока:
   Линии ψ = const — это линии тока (траектории частиц жидкости)
   Жидкость течёт вдоль этих линий, не пересекая их.

 Почему они ортогональны:
   Градиент φ (направление наибыстрейшего роста φ) перпендикулярен
   линиям φ = const. Но градиент φ = вектор скорости. А скорость
   направлена вдоль линий тока ψ = const. Значит, линии ⊥ друг другу.

        φ = 3   φ = 2   φ = 1   φ = 0   ← эквипотенциали (вертикально)
           |       |       |       |
    ψ=1 ---+-------+-------+-------+--→  ← линии тока (горизонтально)
           |       |       |       |
    ψ=0 ---+-------+-------+-------+--→
           |       |       |       |
    ψ=−1---+-------+-------+-------+--→
           |       |       |       |

   Жидкость течёт вправо (вдоль ψ = const), пересекая эквипотенциали.


 Примеры комплексных потенциалов — с расчётами

-------------------------------------------------------------------------------
 Пример 1: однородный поток (w = Uz)
-------------------------------------------------------------------------------

   w(z) = Uz = U(x + iy) = Ux + iUy

   Значит: φ = Ux,  ψ = Uy

   Скорость: vₓ = ∂φ/∂x = U,  vᵧ = ∂φ/∂y = 0

   Интерпретация: Однородный поток со скоростью U вправо.

   Конкретно: U = 5 м/с, точка z = 2 + 3i (x=2, y=3)
              φ = 5×2 = 10,  ψ = 5×3 = 15
              Скорость = (5, 0) м/с везде одинакова

-------------------------------------------------------------------------------
 Пример 2: источник в начале координат (w = (Q/2π) ln z)
-------------------------------------------------------------------------------

   z = re^{iθ},  ln z = ln r + iθ
   w = (Q/2π)(ln r + iθ)

   Значит: φ = (Q/2π) ln r,  ψ = (Q/2π) θ

   Скорость (в полярных координатах):
   vᵣ = ∂φ/∂r = Q/(2πr),  v_θ = 0

   Интерпретация: Жидкость радиально вытекает из точки.
                  Чем дальше от источника — тем медленнее (скорость ∝ 1/r).

   Конкретно: Q = 10 м²/с (расход на единицу глубины), r = 2 м
              Скорость = 10/(2π×2) = 0.8 м/с (радиально наружу)

          ↖  ↑  ↗
        ←    ●    →    Жидкость вытекает
          ↙  ↓  ↘     радиально из центра

-------------------------------------------------------------------------------
 Пример 3: обтекание цилиндра (w = U(z + a²/z))
-------------------------------------------------------------------------------

   Это сумма однородного потока и диполя.

   Проверим, что |z| = a — линия тока (ψ = 0):

   На окружности z = ae^{iθ}:
   w = U(ae^{iθ} + ae^{−iθ}) = U · 2a cos θ = 2Ua cos θ (чисто веществ.)

   Значит ψ = Im(w) = 0 на всей окружности.
   Окружность |z| = a — линия тока. Жидкость её не пересекает.
   Это и есть поверхность цилиндра.

               →→→→→→→→→→→→
             →  ╭-----╮   →
           →   ╱       ╲    →
          →   |    ●    |    →    Поток огибает цилиндр
           →   ╲       ╱    →
             →  ╰-----╯   →
               →→→→→→→→→→→→

   Конкретно: U = 10 м/с, a = 0.5 м, точка z = 1 (на оси x, вне цилиндра)
   w = 10(1 + 0.25/1) = 10 × 1.25 = 12.5
   dw/dz = U(1 − a²/z²) = 10(1 − 0.25) = 7.5 м/с (локальная скорость)

-------------------------------------------------------------------------------
 Суперпозиция: построение сложных течений
-------------------------------------------------------------------------------

 Ключевая идея: Уравнение Лапласа линейно.

   Если w₁ и w₂ — решения, то w₁ + w₂ тоже решение.
   Сложные течения = суммы простых.

 Пример: Источник + сток + однородный поток

   w = Uz + (Q/2π) ln(z−a) − (Q/2π) ln(z+a)
       ↑           ↑                  ↑
    поток     источник в a      сток в −a

   Это даёт обтекание овального тела.

   →→→   ↗ источник       сток ↘   →→→
   →→→ →  ●---------------------●  → →→→
   →→→   ↘                     ↗   →→→


 Преобразование Жуковского — как рассчитывают крылья


 Проблема: Обтекание цилиндра мы знаем. Но крыло — не цилиндр.

 Идея Жуковского (1910): Конформное отображение превращает круг в крыло.

-------------------------------------------------------------------------------
 Почему это работает
-------------------------------------------------------------------------------

 Голоморфная функция ζ = f(z) обладает свойством конформности:
   • Сохраняет углы между кривыми
   • Линии тока остаются линиями тока.
   • Если w(z) — потенциал для цилиндра, то w(f⁻¹(ζ)) — потенциал
     для того, во что цилиндр превратился

 Преобразование Жуковского:

   ζ = z + a²/z

 Шаг 1: Берём круг |z − z₀| = r (со смещённым центром)

 Шаг 2: Применяем преобразование — получаем профиль крыла.

        z-плоскость                    ζ-плоскость

           ╭---╮
          ╱  ●  ╲
         | центр |        ζ = z + a²/z
          ╲     ╱         -------------→        ╭----------╮
           ╰---╯                               ╱            ╲
          круг со                         ----●--------------╲---
          смещённым                            ╲            ╱
          центром                               ╰----------╯
                                              профиль крыла
                                              (острая задняя кромка)

-------------------------------------------------------------------------------
 Теорема Жуковского о подъёмной силе
-------------------------------------------------------------------------------

   L = ρ U Γ   (подъёмная сила на единицу размаха крыла)

   где: ρ — плотность воздуха
        U — скорость набегающего потока
        Γ — циркуляция вокруг профиля

 Конкретный расчёт:

   Данные: ρ = 1.2 кг/м³, U = 50 м/с, Γ = 20 м²/с
   L = 1.2 × 50 × 20 = 1200 Н/м

   Для крыла длиной 10 м: L_полн = 12000 Н = 1.2 тонны подъёмной силы.

 Откуда берётся циркуляция:
   Условие Кутта-Жуковского: поток сходит с острой задней кромки плавно.
   Это фиксирует величину циркуляции — она не произвольна.

 Историческое значение:
   Это не абстракция — так реально проектировали первые самолёты.
   Комплексный анализ буквально поднял человечество в воздух.


Мы рассмотрели много структур: группы, топологии, векторные пространства,
многообразия, комплексные числа. Везде есть "объекты" и "отображения между
ними" (гомоморфизмы, непрерывные функции, линейные операторы).

Категории — это язык для описания этого общего паттерна. Они позволяют
Видеть аналогии между разными областями математики как точные утверждения.

-------------------------------------------------------------------------------
Категории и функторы — математика о математике
-------------------------------------------------------------------------------

           +------------------------------------------------------+
           |                                                      |
           | "Understanding consists in reducing one type of      |
           | reality to another."                                 |
           | — Claude Lévi-Strauss                                |
           |                                                      |
           | «Понимание состоит в сведении одного типа реальности |
           | к другому.»                                          |
           |                                                      |
           | Теория категорий делает это буквально: функторы      |
           | переводят структуры одного типа в структуры другого. |
           |                                                      |
           +------------------------------------------------------+


===============================================================================
Сводные таблицы
===============================================================================

 T.1 великая таблица соответствий
+------------+------------+------------+------------+------------+------------+
|            | SET        | GRP        | VECT       | TOP        | MAN        |
|            | множества  | группы     | вект.пр-ва | топология  | многообр.  |
+------------+------------+------------+------------+------------+------------+
| ОБЪЕКТЫ    | множества  | группы     | пр-ва над F| простр-ва  | гладкие    |
|            |            |            |            |            | многообр.  |
+------------+------------+------------+------------+------------+------------+
| морфизм    | функция    | гомомор-   | линейное   | непрерывн. | гладкое    |
|            |            | физм       | отображ.   | отображ.   | отображ.   |
+------------+------------+------------+------------+------------+------------+
| ИЗОМОРФИЗМ | биекция    | изоморфизм | изоморфизм | гомеомор-  | диффеомор- |
|            |            | групп      | пр-в       | физм       | физм       |
+------------+------------+------------+------------+------------+------------+
| ИНВАРИАНТ  | |A|        | порядок,   | dim V      | π₁, χ, Hₙ | dim,       |
|            | мощность   | таблица    |            |            | кривизна   |
+------------+------------+------------+------------+------------+------------+
| ПОДОБЪЕКТ  | подмн-во   | подгруппа  | подпростр. | подпростр. | подмногооб.|
|            | A ⊆ B      | H ≤ G      | W ⊆ V      | (откр/замк)|            |
+------------+------------+------------+------------+------------+------------+
| ФАКТОРОБЪ. | A/∼        | G/H        | V/W        | X/∼        | M/G        |
|            |            | (H ⊲ G)   |            |            | (орбиты)   |
+------------+------------+------------+------------+------------+------------+
| ПРОИЗВЕД.  | A × B      | G × H      | V ⊕ W      | X × Y      | M × N      |
+------------+------------+------------+------------+------------+------------+
| КОПРОИЗВ.  | A ⊔ B      | G * H      | V ⊕ W      | X ⊔ Y      | M ⊔ N      |
|            |            | (свободн.) | (то же)   |            |            |
+------------+------------+------------+------------+------------+------------+
| ЯДРО       | —          | ker φ ⊲ G  | ker T ⊆ V  | —          | —          |
+------------+------------+------------+------------+------------+------------+
| ОБРАЗ      | f(A)       | Im φ ≤ H   | Im T ⊆ W   | f(X)       | f(M)       |
+------------+------------+------------+------------+------------+------------+
| НАЧАЛЬНЫЙ  | ∅          | {e}        | {0}        | ∅          | ∅          |
+------------+------------+------------+------------+------------+------------+
| ТЕРМИН.    | {*}        | {e}        | {0}        | {*}        | {*}        |
+------------+------------+------------+------------+------------+------------+

 T.2 универсальные паттерны
+------------------------+-----------------------------------------------+
| ПАТТЕРН                | ПРОЯВЛЕНИЯ                                    |
+------------------------+-----------------------------------------------+
| d² = 0                 | d∘d=0 (формы), ∂∘∂=0 (границы),               |
|                        | rot∘grad=0, div∘rot=0                         |
+------------------------+-----------------------------------------------+
| dim = dim ker + dim Im | Линейная алгебра, группы (теорема Лагранжа),  |
|                        | дифф. формы (когомологии)                     |
+------------------------+-----------------------------------------------+
| Двойственность         | V ↔ V*, G ↔ Ĝ, q ↔ p, точки ↔ гиперплоскости  |
+------------------------+-----------------------------------------------+
| Локальность → Глобал.  | Теор. Стокса, теор. де Рама, расслоения       |
+------------------------+-----------------------------------------------+
| Симметрия → Сохранение | Теорема Нётер: каждая непрерывная симметрия   |
|                        | даёт закон сохранения                         |
+------------------------+-----------------------------------------------+
| Классификация          | Конечные группы, поверхности, простые алгебры |
+------------------------+-----------------------------------------------+

 T.3 основные принципы стандарта
+-------+-----------------------------------------------------------+
| НОМЕР | ПРИНЦИП                                                   |
+-------+-----------------------------------------------------------+
| 1     | Математика — открытие структуры, присущей акту различения |
+-------+-----------------------------------------------------------+
| 2     | Из ∅ через категоризацию возникает вся математика         |
+-------+-----------------------------------------------------------+
| 3     | Логика — надстройка над теорией множеств для коммуникации |
+-------+-----------------------------------------------------------+
| 4     | Доказательство — путь по графу вложений множеств          |
+-------+-----------------------------------------------------------+
| 5     | Понимание = способность визуализировать                   |
+-------+-----------------------------------------------------------+
| 6     | Один паттерн проявляется во всех разделах                 |
+-------+-----------------------------------------------------------+

 T.4 сводная таблица соответствий между разделами
+------------------+----------------------------------------------------------+
| ПОНЯТИЕ          | РЕАЛИЗАЦИИ В РАЗДЕЛАХ                                    |
+------------------+----------------------------------------------------------+
| Изоморфизм       | Set: биекция                                            |
|                  | изоморфизм групп                                    |
|                  | изоморфизм пространств                              |
|                  | гомеоморфизм                                        |
|                  | эквивалентность категорий                          |
+------------------+----------------------------------------------------------+
| Инвариант        | Set: мощность |A|                                       |
| (что сохраняется)| таблица умножения                                   |
|                  | размерность dim V                                   |
|                  | π₁, χ, Hₙ                                           |
+------------------+----------------------------------------------------------+
| Ядро морфизма    | ker(φ) ⊲ G                                          |
|                  | ker(T) ⊆ V                                          |
|                  | ker(d) = замкнутые формы                            |
+------------------+----------------------------------------------------------+
| Двойственность   | G ↔ Ĝ                                               |
|                  | V ↔ V*                                              |
|                  | Ωᵏ ↔ Ωⁿ⁻ᵏ                                           |
|                  | q ↔ p (симплектическая)                             |
+------------------+----------------------------------------------------------+
| Свойство d²=0    | Векторный анализ: rot∘grad=0, div∘rot=0                 |
|                  | d∘d=0                                               |
|                  | ∂∘∂=0 (гомологии)                                   |
+------------------+----------------------------------------------------------+


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                    ЧАСТЬ IV: ПРИКЛАДНАЯ МАТЕМАТИКА
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Вероятность — математика неопределённости
===============================================================================

Помните раздел про меру Лебега? Мы говорили, что интеграл Римана плох для
пределов — последовательность интегрируемых функций может сходиться к
неинтегрируемой. Мера Лебега решила эту проблему, обобщив понятие "длины".

Вероятность использует тот же апгрейд. Вместо "длины на прямой" мы измеряем
"вероятность события" — и это тоже мера, подчиняющаяся тем же аксиомам.
Вся теория вероятностей — это теория меры на пространстве исходов.

E[X] = ∫X dP — это не аналогия с интегралом, это буквально интеграл Лебега
по вероятностной мере P. Всё, что мы знаем об интегралах (теорема о
монотонной сходимости, Фубини, и т.д.), работает и здесь.

 Вероятность как взгляд на пространство


 Теория вероятностей — это теория меры на специальных пространствах.

 +------------------+-----------------------------------------+
 | ВЕРОЯТНОСТНЫЙ    | ГЕОМЕТРИЧЕСКИЙ                          |
 | ТЕРМИН           | СМЫСЛ                                   |
 +------------------+-----------------------------------------+
 | Пространство     | МНОЖЕСТВО всех возможных состояний мира |
 | элементарных     | Каждая точка ω ∈ Ω — один "сценарий"    |
 | исходов Ω        | (что выпало, какая погода, какой путь)  |
 +------------------+-----------------------------------------+
 | Событие A ⊆ Ω    | ПОДМНОЖЕСТВО пространства исходов       |
 |                  | ("в каких сценариях A произошло")       |
 +------------------+-----------------------------------------+
 | Вероятность P(A) | МЕРА множества A                        |
 |                  | (обобщённый "объём" области)            |
 +------------------+-----------------------------------------+
 | Случайная        | ОТОБРАЖЕНИЕ X: Ω → ℝ                    |
 | величина X       | (функция на пространстве исходов)       |
 +------------------+-----------------------------------------+
 | Мат. ожидание    | ИНТЕГРАЛ по мере P                      |
 | E[X]             | E[X] = ∫_Ω X(ω) dP(ω)                   |
 +------------------+-----------------------------------------+
 | Независимые      | ПРОИЗВЕДЕНИЕ пространств                |
 | эксперименты     | Ω = Ω₁ × Ω₂, P = P₁ × P₂                |
 +------------------+-----------------------------------------+

 Примеры:
   • Бросок монеты: Ω = {орёл, решка} — два мира
   • Случайное блуждание: Ω = все возможные траектории
   • Тепловые флуктуации: Ω = бесконечномерное (функции температуры)

 Вывод: Вероятность — это НЕ "шансы" в бытовом смысле.
 Это строгая математическая структура: пространство + мера.


 Конкретный пример: бросок двух кубиков


 Пространство исходов:

   Ω = {(1,1), (1,2), (1,3), ..., (6,6)} = {1,...,6} × {1,...,6}
   |Ω| = 36 точек

   Это конечное дискретное пространство — "решётка" 6×6:

       j
     6 | ● ● ● ● ● ●
     5 | ● ● ● ● ● ●
     4 | ● ● ● ● ● ●      Каждая точка ● — один исход
     3 | ● ● ● ● ● ●      Мера: P({(i,j)}) = 1/36 для всех
     2 | ● ● ● ● ● ●
     1 | ● ● ● ● ● ●
       +------------- i
         1 2 3 4 5 6

 Событие "сумма = 7":

   A = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)}

   Это подмножество (диагональ в нашей "решётке").
   P(A) = |A|/|Ω| = 6/36 = 1/6

 Случайная величина X = "сумма очков":

   X: Ω → ℝ,  X((i,j)) = i + j

   E[X] = Σ X(ω)·P({ω}) = Σᵢⱼ (i+j)/36 = 7

   (Сумма всех значений с их вероятностями = интеграл по мере P)


 Связь с другими разделами атласа


 Теория множеств (1.1):
   Ω — множество, события — подмножества, σ-алгебра — система подмножеств
   Операции: A ∪ B (или), A ∩ B (и), Aᶜ (не)

 Мера:
   P — это мера со свойством P(Ω) = 1 (нормировка)
   Все свойства меры работают: счётная аддитивность, непрерывность

 Функциональный анализ:
   Случайные величины с E[X²] < ∞ образуют гильбертово пространство L²(Ω,P)
   Ковариация Cov(X,Y) = ⟨X − E[X], Y − E[Y]⟩ — скалярное произведение.
   Некоррелированность ⟺ ортогональность

 Линейная алгебра:
   Ковариационная матрица Σ — положительно полуопределённая
   Главные компоненты (PCA) = собственные векторы Σ
   Метрика Махаланобиса d² = (x−μ)ᵀΣ⁻¹(x−μ) — расстояние с учётом Σ


 Вероятность = мера

 Теория вероятностей — это теория меры с условием μ(Ω) = 1
+----------------------------+-----------------------------------+
| ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО | (Ω, Σ, P)                         |
+----------------------------+-----------------------------------+
| Ω                          | Пространство элементарных исходов |
+----------------------------+-----------------------------------+
| Σ                          | σ-алгебра событий                 |
+----------------------------+-----------------------------------+
| P                          | Вероятностная мера: P(Ω) = 1      |
+----------------------------+-----------------------------------+

 Словарь: вероятность ↔ теория меры
+-----------------------------+-----------------------------------------------+
| ВЕРОЯТНОСТЬ                 | ТЕОРИЯ МЕРЫ                                   |
+-----------------------------+-----------------------------------------------+
| Событие A                   | Измеримое множество A ∈ Σ                     |
+-----------------------------+-----------------------------------------------+
| Вероятность P(A)            | Мера μ(A), нормированная μ(Ω)=1               |
+-----------------------------+-----------------------------------------------+
| Случайная величина X        | Измеримая функция X: Ω → ℝ                    |
+-----------------------------+-----------------------------------------------+
| Плотность вероятности f(x)  | Производная Радона-Никодима dP/dλ             |
|                             | (отношение меры P к мере Лебега λ)            |
+-----------------------------+-----------------------------------------------+
| Мат. ожидание E[X]          | Интеграл Лебега ∫X dP                         |
+-----------------------------+-----------------------------------------------+
| Независимость A, B          | P(A∩B) = P(A)·P(B)                            |
+-----------------------------+-----------------------------------------------+
| Условная вероятность P(A|B) | P(A∩B)/P(B)                                   |
+-----------------------------+-----------------------------------------------+

 Аксиомы Колмогорова (1933)
+----------------------+--------------------------------------+
| АКСИОМА              | ФОРМУЛИРОВКА                         |
+----------------------+--------------------------------------+
| Неотрицательность    | P(A) ≥ 0 для всех A ∈ Σ              |
+----------------------+--------------------------------------+
| Нормировка           | P(Ω) = 1                             |
+----------------------+--------------------------------------+
| Счётная аддитивность | P(⋃ₙAₙ) = ΣₙP(Aₙ) для дизъюнктных Aₙ |
+----------------------+--------------------------------------+

 Следствия из аксиом
+---------------------------+-------------------------------+
| СВОЙСТВО                  | ФОРМУЛА                       |
+---------------------------+-------------------------------+
| Невозможное событие       | P(∅) = 0                      |
+---------------------------+-------------------------------+
| Дополнение                | P(Aᶜ) = 1 − P(A)              |
+---------------------------+-------------------------------+
| Монотонность              | A ⊆ B ⇒ P(A) ≤ P(B)           |
+---------------------------+-------------------------------+
| Формула включений-исключ. | P(A∪B) = P(A) + P(B) − P(A∩B) |
+---------------------------+-------------------------------+

 Случайные величины и распределения

 Случайная величина X: Ω → ℝ — измеримая функция
+-----------------------+---------------------------------------------+
| ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ | F(x) = P(X ≤ x)                             |
+-----------------------+---------------------------------------------+
| Свойства F(x)         | Неубывающая, F(−∞)=0, F(+∞)=1, непр. справа |
+-----------------------+---------------------------------------------+
| Дискретная с.в.       | Счётное мн-во значений: P(X=xₖ)=pₖ, Σpₖ=1   |
+-----------------------+---------------------------------------------+
| Непрерывная с.в.      | F(x)=∫₋∞ˣf(t)dt, f — плотность, ∫f=1        |
+-----------------------+---------------------------------------------+

 Как гистограмма превращается в плотность распределения


 Это ключевая интуиция для понимания непрерывных распределений.

-------------------------------------------------------------------------------
 Шаг 1: обычная гистограмма
-------------------------------------------------------------------------------

   Есть N измерений. Разбиваем ось на бины (интервалы) ширины Δx.
   В каждом бине считаем количество попаданий nₖ.

   Высота столбика = nₖ (абсолютная частота)

   Проблема: если взять другую ширину бина, гистограмма изменится.

-------------------------------------------------------------------------------
 Шаг 2: нормируем на ширину бина
-------------------------------------------------------------------------------

   Высота столбика = nₖ / (N · Δx)

   Теперь высота — это плотность частоты: "сколько попаданий на единицу x"

   Размерность: [1/x], например 1/метр, 1/секунда, 1/градус

   Важно: Площадь столбика = (nₖ/N·Δx) · Δx = nₖ/N = относительная частота
   Сумма площадей всех столбиков = 1

-------------------------------------------------------------------------------
 Шаг 3: устремляем Δx → 0 и N → ∞
-------------------------------------------------------------------------------

   При Δx → 0 ступенчатая гистограмма превращается в гладкую кривую.
   Эта кривая — функция плотности распределения f(x).

                    nₖ
   f(x) = lim  ---------
         Δx→0   N · Δx
         N→∞

   Свойства f(x):
   • f(x) ≥ 0  (частота не может быть отрицательной)
   • ∫f(x)dx = 1  (сумма всех вероятностей = 1)
   • P(a ≤ X ≤ b) = ∫ₐᵇ f(x)dx  (площадь под кривой = вероятность)

-------------------------------------------------------------------------------
 Визуализация
-------------------------------------------------------------------------------

   Δx = 1:        Δx = 0.5:       Δx → 0:
    ▄▄▄               ▄▄             ╭--╮
   ▄███▄             ▄██▄           ╱    ╲
  ▄█████▄           ▄████▄        ╱      ╲
  ███████          ████████      ╱        ╲
  -------          --------     ╱----------╲
  грубая           точнее       гладкая кривая f(x)

-------------------------------------------------------------------------------
 Практический смысл
-------------------------------------------------------------------------------

   Для температуры в трубопроводе за год (миллионы измерений):

   • Гистограмма с бинами 1°C даёт грубую картину
   • Гистограмма с бинами 0.1°C — детальнее
   • Плотность f(T) — идеальный предел при бесконечных данных

   f(25°C) = 0.15 [1/°C] означает:
   "В малом интервале около 25°C вероятность ≈ 0.15 · ΔT"

 Важно: f(x) — это НЕ вероятность (может быть > 1)!
        Вероятность — это площадь: P = f(x) · Δx


 Важнейшие распределения — дискретные
+------------------------+------------------+-----------------------+
| РАСПРЕДЕЛЕНИЕ          | P(X=k)           | ПРИМЕНЕНИЕ            |
+------------------------+------------------+-----------------------+
| Бернулли(p)            | P(1)=p, P(0)=1−p | Одно испытание да/нет |
+------------------------+------------------+-----------------------+
| Биномиальное Bin(n,p)  | C(n,k)pᵏ(1−p)ⁿ⁻ᵏ | k успехов в n испыт.  |
+------------------------+------------------+-----------------------+
| Пуассона Pois(λ)       | e⁻λ·λᵏ/k!        | Редкие события        |
+------------------------+------------------+-----------------------+
| Геометрическое Geom(p) | (1−p)ᵏ⁻¹·p       | Номер первого успеха  |
+------------------------+------------------+-----------------------+

 Важнейшие распределения — непрерывные
+-------------------------+------------------+-----------------------+
| РАСПРЕДЕЛЕНИЕ           | ПЛОТНОСТЬ f(x)   | ПРИМЕНЕНИЕ            |
+-------------------------+------------------+-----------------------+
| Равномерное U(a,b)      | 1/(b−a) на [a,b] | Случайная точка       |
+-------------------------+------------------+-----------------------+
| Экспоненциальное Exp(λ) | λe⁻λˣ, x≥0       | Время до события      |
+-------------------------+------------------+-----------------------+
| Нормальное N(μ,σ²)      | exp(−(x−μ)²/2σ²) | Ошибки, рост, финансы |
|                         | /(σ√2π)          | ВЕЗДЕ.                |
+-------------------------+------------------+-----------------------+
| Стандартное N(0,1)      | e⁻ˣ²/²/√2π       | Z = (X−μ)/σ           |
+-------------------------+------------------+-----------------------+

 Числовые характеристики
+------------------------+---------------------------------------------+
| ХАРАКТЕРИСТИКА         | ОПРЕДЕЛЕНИЕ                                 |
+------------------------+---------------------------------------------+
| Мат. ожидание E[X] (μ) | ∫X dP = Σxₖpₖ (дискр.) или ∫xf(x)dx (непр.) |
+------------------------+---------------------------------------------+
| Дисперсия Var(X) = σ²  | E[(X−μ)²] = E[X²] − (E[X])²                 |
+------------------------+---------------------------------------------+
| Станд. отклонение σ    | √Var(X), в тех же единицах что X            |
+------------------------+---------------------------------------------+
| Ковариация Cov(X,Y)    | E[(X−μₓ)(Y−μᵧ)] = E[XY] − E[X]E[Y]          |
+------------------------+---------------------------------------------+
| Корреляция ρ(X,Y)      | Cov(X,Y)/(σₓσᵧ) ∈ [−1, 1]                   |
+------------------------+---------------------------------------------+
| Моменты E[Xⁿ]          | n-й момент относительно нуля                |
+------------------------+---------------------------------------------+

 Свойства характеристик
+-----------------------------------+------------------------------------+
| СВОЙСТВО                          | ФОРМУЛА                            |
+-----------------------------------+------------------------------------+
| Линейность E                      | E[aX+b] = aE[X]+b                  |
+-----------------------------------+------------------------------------+
| Аддитивность E (всегда)          | E[X+Y] = E[X]+E[Y]                 |
+-----------------------------------+------------------------------------+
| Мультипликативность (независимые) | E[XY] = E[X]E[Y]                   |
+-----------------------------------+------------------------------------+
| Масштабирование Var               | Var(aX+b) = a²Var(X)               |
+-----------------------------------+------------------------------------+
| Аддитивность Var (независимые)    | Var(X+Y) = Var(X)+Var(Y)           |
+-----------------------------------+------------------------------------+
| Общая формула                     | Var(X+Y) = Var(X)+Var(Y)+2Cov(X,Y) |
+-----------------------------------+------------------------------------+

 Закон больших чисел и цпт

 Условие: X₁, X₂, … — i.i.d. (независ. одинак. распр.) с E[Xᵢ]=μ, Var=σ²
 Выборочное среднее: X̄ₙ = (X₁+...+Xₙ)/n
+---------------------------+---------------------------------------+
| ТЕОРЕМА                   | ФОРМУЛИРОВКА и СМЫСЛ                  |
+---------------------------+---------------------------------------+
| Закон больших чисел (ЗБЧ) | X̄ₙ → μ при n→∞                       |
|                           | "Среднее выборки → истинное среднее"  |
|                           | Пример: доля орлов → 0.5              |
+---------------------------+---------------------------------------+
| Центральная предельная    | √n(X̄ₙ−μ)/σ → N(0,1) по распределению |
| теорема (ЦПТ)             | Следствие: X̄ₙ ≈ N(μ, σ²/n)           |
|                           | "Сумма независимых ≈ нормальное"      |
|                           | Объясняет, почему N(μ,σ²) ВЕЗДЕ       |
+---------------------------+---------------------------------------+

 Важное ограничение цпт


 Цпт требует конечной дисперсии (σ² < ∞)!

 Распределения с "тяжёлыми хвостами" НЕ сходятся к нормальному:
   • Коши: E[X] не существует, Var = ∞
   • Парето с α ≤ 2: Var = ∞
   • Устойчивые распределения Леви

 Применение: В финансах и анализе надёжности тяжёлые хвосты критичны.
 Нормальное распределение недооценивает вероятность экстремальных событий.

 Сумма Коши: среднее n чисел Коши распределено как одно число Коши.
 (усреднение НЕ уменьшает разброс)


 Условная вероятность и Байес
+-----------------------------+-----------------------------------------------+
| ПОНЯТИЕ                     | ФОРМУЛА / СМЫСЛ                               |
+-----------------------------+-----------------------------------------------+
| Условная вероятность        | P(A|B) = P(A∩B)/P(B)                          |
|                             | "Вероятность A при условии B"                 |
+-----------------------------+-----------------------------------------------+
| Теорема Байеса              | P(A|B) = P(B|A)·P(A) / P(B)                   |
+-----------------------------+-----------------------------------------------+
| Через полную вероятность    | P(A|B) = P(B|A)P(A) / [P(B|A)P(A)+P(B|Aᶜ)P(Aᶜ)]|
+-----------------------------+-----------------------------------------------+

 Терминология Байеса
+-----------------------------+-----------------------------------------------+
| ТЕРМИН                      | СМЫСЛ                                         |
+-----------------------------+-----------------------------------------------+
| P(A) — априорная            | Вероятность ДО наблюдения данных              |
+-----------------------------+-----------------------------------------------+
| P(A|B) — апостериорная      | Вероятность ПОСЛЕ наблюдения B                |
+-----------------------------+-----------------------------------------------+
| P(B|A) — правдоподобие      | Насколько вероятно B при гипотезе A           |
+-----------------------------+-----------------------------------------------+

 Пример: медицинский тест (парадокс ложноположительных)
+-----------------------------+-----------------------------------------------+
| ДАННЫЕ                      | ЗНАЧЕНИЕ                                      |
+-----------------------------+-----------------------------------------------+
| P(болен)                    | 0.01 (1% популяции болеет)                    |
+-----------------------------+-----------------------------------------------+
| P(+|болен)                  | 0.99 (чувствительность 99%)                   |
+-----------------------------+-----------------------------------------------+
| P(+|здоров)                 | 0.05 (5% ложноположительных)                  |
+-----------------------------+-----------------------------------------------+
| P(болен|+) = ?              | (0.99·0.01)/(0.99·0.01+0.05·0.99) ≈ 0.17     |
+-----------------------------+-----------------------------------------------+
| Вывод                       | При + тесте вероятность болезни всего ~17%.   |
+-----------------------------+-----------------------------------------------+

 Связь вероятности с другими разделами
+---------------------+--------------------------------------------+
| РАЗДЕЛ              | СВЯЗЬ С ВЕРОЯТНОСТЬЮ                       |
+---------------------+--------------------------------------------+
| Мера Лебега         | Вероятность = мера с μ(Ω)=1, E[X]=∫X dP    |
+---------------------+--------------------------------------------+
| Функц. анализ       | L²(Ω,P) — пространство с.в. с конечной Var |
+---------------------+--------------------------------------------+
| Линейная алгебра    | Ковариационная матрица, PCA                |
|                     | Корреляция = cos угла в L²                 |
+---------------------+--------------------------------------------+
| Ряды Фурье          | Характеристическая ф-ция E[eⁱᵗˣ] = Фурье   |
+---------------------+--------------------------------------------+
| Физика              | Стат. механика, квантовая теория, энтропия |
+---------------------+--------------------------------------------+
| ML / Статистика     | Байесовский вывод, регрессия, тестирование |
+---------------------+--------------------------------------------+
| B1 Программирование | ВЕРОЯТНОСТНОЕ ПРОГРАММИРОВАНИЕ:            |
|                     | Переменные = распределения, код = модель   |
|                     | Языки: Stan, PyMC, Edward, Pyro            |
+---------------------+--------------------------------------------+

 Характеристическая функция = преобразование Фурье плотности


 Определение:
   φ_X(t) = E[eⁱᵗˣ] = ∫ f(x) eⁱᵗˣ dx

   Это в точности преобразование Фурье плотности f(x).

 Почему это важно:

   Свёртка плотностей ↔ Умножение характеристических функций:

   Если X и Y независимы, то Z = X + Y имеет плотность f_Z = f_X * f_Y.
   Но свёртка сложна. А в частотной области:

       φ_{X+Y}(t) = φ_X(t) · φ_Y(t)

   Умножение проще свёртки — в этом сила Фурье.

 Примеры:
 +---------------+----------------------------+
 | РАСПРЕДЕЛЕНИЕ | ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ |
 +---------------+----------------------------+
 | N(μ, σ²)      | φ(t) = exp(iμt − σ²t²/2)   |
 | Exp(λ)        | φ(t) = λ/(λ − it)          |
 | Poisson(λ)    | φ(t) = exp(λ(eⁱᵗ − 1))     |
 +---------------+----------------------------+

 Следствие (цпт через Фурье):
   Почему сумма независимых с.в. → нормальное распределение?
   Потому что φ_N(t) = exp(−t²/2) — единственная функция, удовлетворяющая
   φ(t)ⁿ → φ(t) при правильной нормировке (неподвижная точка).


 Вероятностное программирование — мост между Байесом и кодом


 В обычном коде: x = 5                      (детерминированное значение)
 В вероятн. коде: x ~ Normal(μ, σ)          (переменная = распределение)

 Пример (псевдокод Stan):

   data { vector[N] y; }                     // наблюдения
   parameters { real mu; real<lower=0> sigma; }
   model {
     mu ~ Normal(0, 10);                     // априорное распределение
     sigma ~ Cauchy(0, 5);
     y ~ Normal(mu, sigma);                  // модель данных
   }

 Система автоматически вычисляет P(μ, σ | y) — апостериорное.

 Зачем: Декларативное описание модели вместо ручного вывода формул Байеса.
 Алгоритмы (MCMC, вариационный вывод) работают "под капотом".


 Прикладной пример: надёжность насосной станции


 Задача: Насосная станция с 3 насосами. Для работы нужны хотя бы 2 из 3.
 Каждый насос выходит из строя независимо с вероятностью p = 0.1 за год.
 Какова вероятность отказа станции?

         +----------+
    -----| Насос 1  |-----+
         +----------+     |     Нужно ≥2 работающих.
         +----------+     |
    -----| Насос 2  |-----+---►  выход
         +----------+     |
         +----------+     |
    -----| Насос 3  |-----+
         +----------+

 Модель: X ~ Binomial(n=3, p=0.1) — число отказавших насосов

   P(X = k) = C(3,k) · 0.1ᵏ · 0.9³⁻ᵏ

   P(X = 0) = 0.9³ = 0.729      (все работают)
   P(X = 1) = 3·0.1·0.81 = 0.243   (один отказал)
   P(X = 2) = 3·0.01·0.9 = 0.027   (два отказали — авария)
   P(X = 3) = 0.001               (все отказали — авария)

   P(авария) = P(X ≥ 2) = 0.027 + 0.001 = 0.028 = 2.8%

-------------------------------------------------------------------------------
 Сравнение схем резервирования
-------------------------------------------------------------------------------

   +---------------------------+--------------+------------------------------+
   | СХЕМА                     | P(авария)    | КОММЕНТАРИЙ                  |
   +---------------------------+--------------+------------------------------+
   | 1 насос (без резерва)     | 0.1 = 10%    | Базовый вариант              |
   +---------------------------+--------------+------------------------------+
   | 2 из 2 (оба нужны)        | 1−0.9² = 19% | Хуже. Последоват. соединение |
   +---------------------------+--------------+------------------------------+
   | 1 из 2 (любой достаточен) | 0.1² = 1%    | Параллельное соединение      |
   +---------------------------+--------------+------------------------------+
   | 2 из 3 (наш случай)       | 2.8%         | Мажоритарное голосование     |
   +---------------------------+--------------+------------------------------+

-------------------------------------------------------------------------------
 Экспоненциальное распределение — время до отказа
-------------------------------------------------------------------------------

   Если λ = интенсивность отказов (1/год), то время до отказа:

   T ~ Exp(λ),  P(T > t) = e^(−λt)

   Среднее время до отказа: E[T] = 1/λ

   Пример: λ = 0.1/год ⇒ E[T] = 10 лет — средний срок службы насоса

-------------------------------------------------------------------------------

 Мораль: Вероятность — инструмент для расчёта надёжности систем.
 Независимость событий + формулы для схем соединения = анализ резервирования.


-------------------------------------------------------------------------------
Теория информации — математика неопределённости и связи
-------------------------------------------------------------------------------

 Информация как взгляд на пространство


 Теория информации изучает пространство сообщений и их вероятности.

 Ключевая идея: сообщения образуют пространство, и можно измерить
 "расстояние" между распределениями вероятностей на этом пространстве:

   • Энтропия H(X) — "размер" неопределённости
   • KL-дивергенция D(P||Q) — "расстояние" между распределениями
   • Взаимная информация I(X;Y) — "пересечение" неопределённостей

 Эта геометрия на пространстве вероятностей — основа машинного обучения.


 Визуализация: энтропия = мера беспорядка


   Начальное состояние после смешивания
   (низкая энтропия)                (высокая энтропия)

   +---------+---------+            +-------------------+
   | ● ● ● ● | ○ ○ ○ ○ |            | ○ ● ○ ● ● ○ ○ ● |
   | ● ● ● ● | ○ ○ ○ ○ |     →      | ● ○ ● ○ ○ ● ● ○ |
   | ● ● ● ● | ○ ○ ○ ○ |            | ○ ○ ● ● ○ ● ○ ● |
   | ● ● ● ● | ○ ○ ○ ○ |            | ● ● ○ ○ ● ○ ● ○ |
   +---------+---------+            +-------------------+
    Горячий    Холодный              Тёплый (равномерно)
      газ        газ

   Информация: "знаю, где какие молекулы"  →  "не знаю, где какие"
   Энтропия:   низкая (порядок)            →  высокая (беспорядок)
   Процесс:    необратим (2-й закон термодинамики)

   Количественно: S = kᵦ ln W, где W — число способов расположить молекулы
   Смешанное состояние: W гораздо больше → S гораздо больше


 Энтропия Шеннона — мера неопределённости


 Мотивация: Сколько "информации" несёт сообщение?

   • "Солнце взошло на востоке" — мало информации (ожидаемо)
   • "Солнце взошло на западе" — много информации (неожиданно)

 Идея Шеннона (1948): Информация = мера неожиданности

 Определение энтропии:
 +-------------------------------------------------------------+
 |                                                             |
 | H(X) = −Σᵢ pᵢ log₂ pᵢ     (биты)                            |
 |                                                             |
 | H(X) = −Σᵢ pᵢ ln pᵢ       (наты, если натуральный логарифм) |
 |                                                             |
 +-------------------------------------------------------------+

 Смысл: Энтропия = среднее количество "вопросов да/нет" для определения
 исхода случайной величины X.

 Примеры:

 +-----------------------+------------------+--------------------------+
 | РАСПРЕДЕЛЕНИЕ         | ЭНТРОПИЯ         | ИНТУИЦИЯ                 |
 +-----------------------+------------------+--------------------------+
 | Монета (½, ½)         | H = 1 бит        | Один вопрос: "орёл?"     |
 +-----------------------+------------------+--------------------------+
 | Кубик (⅙, ⅙, ..., ⅙)  | H = log₂6 ≈ 2.58 | ~2.58 вопросов в среднем |
 +-----------------------+------------------+--------------------------+
 | Определённое (1,0,0)  | H = 0            | Нет неопределённости     |
 +-----------------------+------------------+--------------------------+
 | Смещённая (0.99,0.01) | H ≈ 0.08 бит     | Почти всегда известно    |
 +-----------------------+------------------+--------------------------+

 Свойства энтропии:
   • H(X) ≥ 0 (неотрицательность)
   • H(X) = 0 ⟺ X определена (вероятность 1 у одного исхода)
   • H(X) максимальна при равномерном распределении (max = log n)
   • H(X,Y) ≤ H(X) + H(Y), равенство при независимости

 Дифференциальная энтропия (для непрерывных распределений):

   h(X) = −∫ f(x) ln f(x) dx

   Важно: Это НЕ прямое обобщение дискретной энтропии.
     • h(X) может быть отрицательной (например, для узких распределений)
     • h(X) зависит от единиц измерения (масштабирования)
     • Для нормального: h(X) = ½ ln(2πeσ²), отрицательна при σ² < 1/(2πe)

   Инженеры часто путаются: дискретная H(X) ≥ 0, но дифф. h(X) ∈ ℝ.


 Связь с термодинамической энтропией


 Термодинамика (Больцман, ~1870):

   S = kᵦ ln W

   где W — число микросостояний, kᵦ — постоянная Больцмана

 Теория информации (Шеннон, 1948):

   H = −Σ pᵢ ln pᵢ

 Это одно и то же. (с точностью до константы kᵦ)

 +-------------------------------------------------------------------------+
 | ФИЗИКА                      | ТЕОРИЯ ИНФОРМАЦИИ                         |
 +-----------------------------+-------------------------------------------+
 | Энтропия системы S          | Количество неизвестной информации H       |
 +-----------------------------+-------------------------------------------+
 | 2-й закон: S возрастает     | Информация теряется при передаче          |
 +-----------------------------+-------------------------------------------+
 | Тепловая смерть             | Максимум неопределённости                 |
 +-----------------------------+-------------------------------------------+
 | Демон Максвелла             | Информация имеет термодинам. цену         |
 +-----------------------------+-------------------------------------------+

 Принцип Ландауэра (1961):
   Стирание 1 бита информации требует минимум kᵦT ln 2 энергии
   → Информация физична.


 Взаимная информация и канал связи


 Условная энтропия:
   H(Y|X) = "неопределённость Y, если известно X"
   H(Y|X) = Σₓ p(x) H(Y|X=x) = −Σₓ,ᵧ p(x,y) log p(y|x)

 Взаимная информация:
 +-------------------------------------------------------------------------+
 |                                                                         |
 |   I(X;Y) = H(X) + H(Y) − H(X,Y) = H(X) − H(X|Y) = H(Y) − H(Y|X)         |
 |                                                                         |
 |   Сколько информации X и Y имеют общего                                 |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Визуализация (диаграмма Венна для энтропий):

        +---------------------------------------+
        |               H(X,Y)                  |
        |    +-----------------------+          |
        |    |         ╭-----╮       |          |
        |    |   H(X)  |I(X;Y)  H(Y) |          |
        |    |         ╰-----╯       |          |
        |    +-----------------------+          |
        +---------------------------------------+

        H(X|Y)    I(X;Y)    H(Y|X)
        ←-----→   ←----→    ←-----→

 Теорема Шеннона о канале:
   Пропускная способность канала: C = max I(X;Y)
   При скорости < C возможна передача без ошибок.


 Дивергенция Кульбака-Лейблера


 KL-дивергенция (относительная энтропия):

   D_KL(P ∥ Q) = Σᵢ pᵢ log(pᵢ/qᵢ)

 Смысл: "Расстояние" от распределения Q к распределению P
   (сколько бит теряется при использовании Q вместо P)

 Свойства:
   • D_KL ≥ 0 (неравенство Гиббса)
   • D_KL = 0 ⟺ P = Q
   • НЕ симметрична: D_KL(P∥Q) ≠ D_KL(Q∥P) в общем случае
   • НЕ удовлетворяет неравенству треугольника

 Применения:
   • Машинное обучение: функция потерь для классификации
   • Вариационный вывод: приближение сложных распределений
   • Статистика: тесты согласия, выбор моделей


 Кодирование и сжатие


 Теорема Шеннона о кодировании источника:
   Минимальная средняя длина кода = H(X)
   Нельзя сжать лучше, чем до H(X) бит на символ.

 Пример: Текст на английском
   Равномерно: log₂(26) ≈ 4.7 бит/буква
   Реально: H ≈ 1.0-1.5 бит/буква (из-за неравномерности частот)
   → Можно сжать в ~3 раза.

 Оптимальные коды:
   • Код Хаффмана — оптимальный префиксный код
   • Арифметическое кодирование — приближается к H(X)

 Связь с пространствами:
   Множество всех вероятностных распределений на n исходах —
   это (n−1)-мерный симплекс:  Δⁿ⁻¹ = {(p₁,...,pₙ): Σpᵢ=1, pᵢ≥0}
   Энтропия H — это гладкая функция на этом симплексе.


 Связь теории информации с другими разделами


 +--------------------+------------------------------------------------+
 | ОБЛАСТЬ            | СВЯЗЬ                                          |
 +--------------------+------------------------------------------------+
 | Термодинамика      | S = kᵦH (энтропия = информац. энтропия)        |
 +--------------------+------------------------------------------------+
 | Статистика         | Фишеровская информация, ML-оценки              |
 +--------------------+------------------------------------------------+
 | Машинное обучение  | Cross-entropy loss, VAE, информац. узкие места |
 +--------------------+------------------------------------------------+
 | Теория кодирования | Коды с исправлением ошибок, сжатие             |
 +--------------------+------------------------------------------------+
 | Криптография       | Совершенная секретность, энтропия ключа        |
 +--------------------+------------------------------------------------+
 | Квантовая механика | Фон-неймановская энтропия, запутанность        |
 +--------------------+------------------------------------------------+

 Глубинный смысл:
   Энтропия — универсальная мера "беспорядка" или "незнания".
   Она появляется везде, где есть вероятности и неопределённость.
   Это мост между дискретным (биты) и непрерывным (термодинамика).


===============================================================================
Теорема Нётер — симметрия ↔ закон сохранения
===============================================================================

 Самая глубокая связь математики и физики


 Теорема Эмми Нётер (1918):

   Каждой непрерывной симметрии физической системы соответствует
   закон сохранения некоторой величины.

 и наоборот: каждому закону сохранения соответствует симметрия.


 Главные примеры
+---------------------------+--------------------------+
| СИММЕТРИЯ                 | СОХРАНЯЮЩАЯСЯ ВЕЛИЧИНА   |
+---------------------------+--------------------------+
|                           |                          |
| Сдвиг во ВРЕМЕНИ          | ЭНЕРГИЯ                  |
| (физика одинакова вчера   | E = const                |
| и сегодня)                |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Сдвиг в ПРОСТРАНСТВЕ      | ИМПУЛЬС                  |
| (физика одинакова здесь   | p = const                |
| и там)                    |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| ВРАЩЕНИЕ                  | МОМЕНТ ИМПУЛЬСА          |
| (физика не зависит от     | L = const                |
| направления)              |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Калибровочная симметрия   | электрический заряд      |
| (фаза волновой функции)   | Q = const                |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Лоренц-инвариантность     | Релятивистский 4-импульс |
| (физика не зависит от СО) | pᵘ = (E/c, p)            |
|                           |                          |
+---------------------------+--------------------------+

 Математическая формулировка


 Система описывается лагранжианом L(q, q̇, t)

 Если L инвариантен относительно преобразования q → q + εδq:

                ∂L
   Q = Σᵢ ----- · δqᵢ  =  const  (сохраняется)
               ∂q̇ᵢ

 Примеры:
   • L не зависит от t  ⇒  ∂L/∂q̇ · q̇ − L = H (гамильтониан) сохраняется
   • L не зависит от x  ⇒  ∂L/∂ẋ = p (импульс) сохраняется
   • L не зависит от угла θ ⇒  ∂L/∂θ̇ = Lz (момент) сохраняется


 Философский смысл


 Законы сохранения — не "божественные заповеди", а следствия геометрии
 пространства-времени.

 Пространство однородно (нет "особых точек") ⇒ импульс сохраняется
 Пространство изотропно (нет "особых направлений") ⇒ момент сохраняется
 Время однородно (законы не меняются) ⇒ энергия сохраняется

 Группы Ли → Законы физики.


 Гамильтонова механика — симплектическая геометрия в действии


 Лагранжиан описывает систему через координаты q и скорости q̇.
 Гамильтониан — через координаты q и импульсы p = ∂L/∂q̇.

 Канонические уравнения Гамильтона:

   q̇ᵢ = ∂H/∂pᵢ,      ṗᵢ = −∂H/∂qᵢ

 Фазовое пространство (q, p) имеет симплектическую структуру:
   2-форма ω = Σ dpᵢ ∧ dqᵢ  (замкнутая, невырожденная)

 Теорема Лиувилля: фазовый объём сохраняется при гамильтоновом потоке.
   ∫ dq₁...dqₙ dp₁...dpₙ = const

   Физический смысл: облако начальных условий в фазовом пространстве
   может менять форму, но не объём. Жидкость несжимаема.

 Скобки Пуассона:

   {f, g} = Σᵢ (∂f/∂qᵢ · ∂g/∂pᵢ − ∂f/∂pᵢ · ∂g/∂qᵢ)

   Свойства: антисимметрия, тождество Якоби, правило Лейбница.
   Уравнение движения: ḟ = {f, H} + ∂f/∂t
   Интеграл движения: {f, H} = 0  ⟺  f сохраняется.

 Связь с квантовой механикой:
   {f, g} → (1/iℏ)[f̂, ĝ]  (скобки Пуассона → коммутатор операторов)
   Это не аналогия — это точное соответствие (квантование Дирака).


===============================================================================
Оптимизация — градиент, экстремумы, лагранжиан
===============================================================================

 Задача оптимизации


 Дана функция f(x₁, x₂, ..., xₙ)
 Найти точку, где f достигает минимума (или максимума)

 Два случая:
   • Без ограничений: ищем экстремум на всём пространстве
   • С ограничениями: g(x) = 0 (на поверхности)


 Выпуклость — гарантия глобального оптимума


 Главная теорема: Для выпуклой функции на выпуклом множестве
                  локальный минимум = глобальный минимум.

 Это фундаментальный факт, который делает задачу "решаемой".


 Выпуклое множество


 Множество C выпукло, если для любых x, y ∈ C и любого t ∈ [0,1]:

   tx + (1−t)y ∈ C

 (Отрезок между любыми двумя точками целиком лежит в множестве)

   Выпуклое: невыпуклое: невыпуклое:
   +---------+       +---╮               +-----+
   |    ●----+---●   |   |               |     +--+
   |         |       |   +---+           |        |
   +---------+       +-------+           +--------+
   Круг, квадрат     "Подкова"           С "дыркой"


 Выпуклая функция


 Функция f выпукла, если для любых x, y и t ∈ [0,1]:

   f(tx + (1−t)y) ≤ t·f(x) + (1−t)·f(y)

 (Хорда лежит над графиком)

         f(x)●------------------●f(y)   ← хорда
             ╲                 ╱
              ╲               ╱
               ╲------●------╱          ← график f
                f(tx+(1-t)y)


 Критерии выпуклости
+----------------------------+--------------------------------------+
| КРИТЕРИЙ                   | ФОРМУЛИРОВКА                         |
+----------------------------+--------------------------------------+
| Первый порядок             | f(y) ≥ f(x) + ∇f(x)·(y−x)            |
| (касательная ПОД графиком) | для всех x, y                        |
+----------------------------+--------------------------------------+
| Второй порядок             | H(f) ≽ 0 (матрица Гессе положительно |
| (для C² функций)           | полуопределена во всех точках)       |
+----------------------------+--------------------------------------+
| Для f(x) одной переменной  | f''(x) ≥ 0 для всех x                |
+----------------------------+--------------------------------------+

 Примеры выпуклых и невыпуклых функций
+---------------------------+-------------------------------------------------+
| ВЫПУКЛЫЕ                  | НЕВЫПУКЛЫЕ                                      |
+---------------------------+-------------------------------------------------+
| x² (парабола)             | −x² (перевёрнутая парабола) — ВОГНУТАЯ          |
| eˣ (экспонента)           | sin(x), cos(x) — осциллируют                   |
| |x| (модуль)              | x³ — меняет кривизну                           |
| x log x (x > 0)           | √x — вогнутая (но −√x выпуклая)               |
| ‖x‖ (любая норма)         | x⁴ − x² — несколько минимумов                 |
| max(f₁, f₂) если fᵢ выпукл|                                                |
+---------------------------+-------------------------------------------------+

 Прикладной пример: оптимизация толщины изоляции


 Задача: Труба с теплоносителем. Найти оптимальную толщину изоляции δ.

 Затраты = Стоимость изоляции + Стоимость потерь тепла

   C(δ) = C_изол · δ + C_тепло / (R₀ + δ/λ)
              ↑                    ↑
      линейно по δ         убывает как 1/(R₀ + δ/λ)

 Анализ выпуклости:

   Первое слагаемое: линейно (выпукло)
   Второе слагаемое: 1/(R₀ + δ/λ) — выпукло для δ > 0
   Сумма выпуклых = выпукла.

   C''(δ) = 2·C_тепло·(1/λ)² / (R₀ + δ/λ)³ > 0  ✓

 Вывод: Функция затрат выпукла ⇒ найденный минимум глобальный.
        Градиентный спуск гарантированно найдёт оптимум.

 Если бы невыпукла: Могли бы застрять в локальном минимуме.
                    Нужны методы глобальной оптимизации (дорого)


 Сохранение выпуклости (правила комбинирования)


   +---------------------+------------------------------+
   | ОПЕРАЦИЯ            | РЕЗУЛЬТАТ                    |
   +---------------------+------------------------------+
   | αf, где α ≥ 0       | Выпуклая (масштабирование)   |
   | f + g               | Выпуклая (сумма выпуклых)    |
   | max(f, g)           | Выпуклая (максимум выпуклых) |
   | f(Ax + b)           | Выпуклая (аффинная замена)   |
   | ∩ выпуклых множеств | Выпуклое (пересечение)       |
   +---------------------+------------------------------+

 Осторожно: min(f, g) НЕ обязательно выпуклая.
            Произведение fg НЕ обязательно выпуклая.
            Композиция f(g(x)) требует условий на f и g.


 Градиент — направление наискорейшего роста


           ⎛ ∂f     ∂f          ∂f  ⎞
   ∇f  =   ⎜----, ----, ..., ----  ⎟
           ⎝ ∂x₁   ∂x₂         ∂xₙ ⎠

 Свойства:
   • ∇f указывает в направлении наибольшего роста f
   • |∇f| = скорость роста в этом направлении
   • ∇f ⊥ линиям уровня f = const

 Пример: f(x,y) = x² + y²
         ∇f = (2x, 2y) — направлен от центра наружу


 Тонкость: ∇f и df — НЕ одно и то же.


 Почему это важно:
   Когда пишут ∇f = (∂f/∂x, ∂f/∂y), это работает в ℝⁿ с обычной метрикой.
   Но в общем случае градиент и дифференциал — разные объекты.

 Дифференциал df — это ковектор (1-форма):
   df: касательные векторы → числа
   df(v) = "производная f в направлении v" = скорость изменения f

   df = (∂f/∂x) dx + (∂f/∂y) dy    ← линейная комбинация базисных 1-форм

 Градиент grad f = ∇f — это вектор:
   ∇f — это вектор, соответствующий ковектору df через метрику

 Связь через метрику:
   df(v) = ⟨∇f, v⟩    для любого вектора v
   или: ∇f = g⁻¹(df)  где g — метрический тензор

 В евклидовом пространстве (g = i):
   Метрика тривиальна, поэтому компоненты совпадают:
   df = (∂f/∂x, ∂f/∂y)  и  ∇f = (∂f/∂x, ∂f/∂y)  — выглядят одинаково

 В криволинейных координатах (сферические, цилиндрические):
   Компоненты различаются. Метрика нетривиальна.

 Визуализация:

   df — "ценник" (сколько стоит сдвиг?)    ← ковектор, живёт в V*
   ∇f — "стрелка" (куда идти?)             ← вектор, живёт в V

     Линии уровня f = const
         ╱  ╱  ╱  ╱  ╱
        ╱  ╱  ╱  ╱  ╱
       ╱  ╱--→╱  ╱   ← ∇f (вектор, перпендикулярен линиям уровня)
      ╱  ╱  ╱  ╱  ╱
     ╱  ╱  ╱  ╱  ╱

   df задаёт "расстояние" между линиями уровня
   ∇f показывает направление этого расстояния (требует метрику)

 Почему ∇f ⊥ линиям уровня:
   Вдоль линии уровня f = const: df(v) = 0 для касательных v
   Значит ⟨∇f, v⟩ = 0, т.е. ∇f перпендикулярен касательным

 Практический вывод:
   В ℝⁿ с обычной метрикой можно не различать df и ∇f.
   В общей теории относительности, на многообразиях — различие критично.


 Необходимое условие экстремума


 Без ограничений:

                         ∇f = 0

   (все частные производные равны нулю — критическая точка)

 Для определения типа точки — матрица Гессе:

            ⎛ ∂²f/∂x₁²    ∂²f/∂x₁∂x₂  ⋯  ∂²f/∂x₁∂xₙ  ⎞
   H(f) =   ⎜ ∂²f/∂x₂∂x₁  ∂²f/∂x₂²    ⋯  ∂²f/∂x₂∂xₙ  ⎟
            ⎜    ⋮           ⋮        ⋱      ⋮         ⎟
            ⎝ ∂²f/∂xₙ∂x₁  ∂²f/∂xₙ∂x₂  ⋯  ∂²f/∂xₙ²     ⎠

   H > 0 (положительно определена) → минимум
   H < 0 (отрицательно определена) → максимум
   det(H) < 0 → седло


 Геометрический смысл гессиана — Почему это работает?


 Напоминание (одна переменная):

   f''(a) > 0 ⇒ минимум (функция "вогнута вверх" ⌣)
   f''(a) < 0 ⇒ максимум (функция "вогнута вниз" ⌢)

   Вторая производная — это кривизна графика.
   Положительная кривизна = "чаша" = минимум
   Отрицательная кривизна = "купол" = максимум

 Многомерный случай:

   В точке a функция f приближается квадратичной формой:

   f(a + h) ≈ f(a) + ∇f(a)·h + ½ hᵀ H(a) h
                       ↑          ↑
                    =0 в крит.    квадратичная форма
                       точке

   В критической точке ∇f = 0, поэтому:

   f(a + h) − f(a) ≈ ½ hᵀ H h

   Знак этого выражения определяет, куда смотрит "поверхность".

 Собственные значения гессиана = кривизны в главных направлениях:

   H — симметричная матрица, значит диагонализуется:

   H = Q Λ Qᵀ, где Λ = diag(λ₁, λ₂, ..., λₙ)

   λᵢ — это кривизна функции вдоль i-го главного направления.

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   Все λᵢ > 0:  "чаша" во всех направлениях = минимум                    |
 |                                                                         |
 |         z                                                               |
 |         |    ╭---╮                                                      |
 |         |   ╱     ╲                                                     |
 |         |  ╱   ●   ╲  ← точка на дне чаши                               |
 |         | ╱---------╲                                                   |
 |         +------------→ x,y                                              |
 |                                                                         |
 |   Все λᵢ < 0:  "купол" во всех направлениях = максимум                  |
 |                                                                         |
 |         z                                                               |
 |         | ╲---------╱                                                   |
 |         |  ╲   ●   ╱  ← точка на вершине купола                         |
 |         |   ╲     ╱                                                     |
 |         |    ╰---╯                                                      |
 |         +------------→ x,y                                              |
 |                                                                         |
 |   Разные знаки λᵢ:  "седло" — вверх в одном, вниз в другом              |
 |                                                                         |
 |         z                                                               |
 |         |    ╱╲                                                         |
 |         |   ╱  ╲                                                        |
 |         |  -----● ← точка в седле                                       |
 |         |   ╲  ╱                                                        |
 |         |    ╲╱                                                         |
 |         +------------→ x,y                                              |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Почему работает окаймлённый гессиан:

   При условной оптимизации мы двигаемся не по всему пространству,
   а только вдоль поверхности g(x) = 0.

   Обычный Гессиан показывает кривизну во всех направлениях.
   Но нас интересуют только допустимые направления (вдоль ограничения).

   Окаймление "вычитает" недопустимые направления:
   • Нулевая строка/столбец — фиксирует ограничение
   • Внутренняя часть — Гессиан функции Лагранжа

   Миноры окаймлённого Гессиана показывают кривизну
   В пространстве, перпендикулярном ∇g (т.е. вдоль поверхности).

 Аналогия:
   Идёте по горному хребту (ограничение = оставаться на хребте).
   Вас интересует: это локальный минимум или максимум вдоль хребта,
   а не то, что по бокам обрыв.


 Метод множителей Лагранжа — экстремум с ограничением


 Задача: минимизировать f(x) при условии g(x) = 0

 Идея: В точке экстремума ∇f ∥ ∇g (градиенты параллельны)

                     ∇f = λ · ∇g

 где λ — множитель Лагранжа (неизвестный скаляр)

 Система уравнений:
   • ∂f/∂xᵢ = λ · ∂g/∂xᵢ  для всех i
   • g(x) = 0              (ограничение)

 Эквивалентно: экстремум функции Лагранжа L = f − λg

 Пример: Найти прямоугольник максимальной площади при P = 20
   f = xy (площадь), g = 2x + 2y − 20 = 0 (периметр)
   ∇f = (y, x), ∇g = (2, 2)
   y = 2λ, x = 2λ ⇒ x = y ⇒ квадрат 5×5


 Окаймлённая матрица Гессе — определение типа в условной оптимизации


 Проблема: Найдена критическая точка методом Лагранжа.
 Это минимум, максимум или седло? Обычный гессиан не работает.

 Идея: Нас интересует знак второй производной не во всём пространстве,
 а только вдоль поверхности ограничения g(x) = 0.

 Окаймлённый гессиан (для одного ограничения g = 0):

             ⎛    0      ∂g/∂x₁     ∂g/∂x₂     ⋯     ∂g/∂xₙ   ⎞
             ⎜ ∂g/∂x₁    ∂²L/∂x₁²   ∂²L/∂x₁∂x₂ ⋯     ∂²L/∂x₁∂xₙ ⎟
   H̄(L)  =   ⎜ ∂g/∂x₂    ∂²L/∂x₂∂x₁ ∂²L/∂x₂²   ⋯     ∂²L/∂x₂∂xₙ ⎟
             ⎜   ⋮          ⋮          ⋮       ⋱        ⋮        ⎟
             ⎝ ∂g/∂xₙ    ∂²L/∂xₙ∂x₁ ∂²L/∂xₙ∂x₂ ⋯     ∂²L/∂xₙ²    ⎠

   где L = f − λg — функция Лагранжа

 Условия экстремума (проверяем угловые миноры h̄, начиная с 3-го):

   Обозначим: |H̄ₖ| — главный минор размера k × k

 +---------------+---------------------------------------------------------+
 | ТИП ТОЧКИ     | УСЛОВИЕ НА МИНОРЫ (k = 3, 4, ..., n+1)                  |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | минимум       | Все |H̄ₖ| < 0  (отрицательны)                            |
 |               |                                                         |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | максимум      | Знаки чередуются: |H̄₃| > 0, |H̄₄| < 0, |H̄₅| > 0, ...    |
 |               | (первый > 0, потом знакочередование)                    |
 |               |                                                         |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | СЕДЛО         | Иначе                                                   |
 |               |                                                         |
 +---------------+---------------------------------------------------------+

 Пример: f(x,y) = xy, g(x,y) = x + y − 10 = 0

   ∇f = (y, x), ∇g = (1, 1)
   Критическая точка: x = y = 5, λ = 5

   Функция Лагранжа: L = xy − λ(x + y − 10)
   ∂²L/∂x² = 0,  ∂²L/∂y² = 0,  ∂²L/∂x∂y = 1

              ⎛ 0  1  1 ⎞
   H̄(L)  =   ⎜ 1  0  1 ⎟
              ⎝ 1  1  0 ⎠

   |H̄₃| = det(H̄) = 0 + 1 + 1 − 0 − 0 − 0 = 2 > 0

   Знак |H̄₃| > 0 → максимум (xy максимально при x = y = 5)

 Несколько ограничений g₁ = 0, g₂ = 0, ..., gₘ = 0:

   Окаймление расширяется до m строк/столбцов:

              ⎛  0    0   ... ∇g₁ᵀ ⎞
              ⎜  0    0   ... ∇g₂ᵀ ⎟
   H̄(L)  =   ⎜  ⋮   ⋮   ⋮   ⋮  ⎟
              ⎜ ∇g₁  ∇g₂  ...  H   ⎟
              ⎝                     ⎠

   Проверяем миноры начиная с (2m+1)-го.

 Связь с обычным гессианом:
   Окаймление "проецирует" кривизну на касательное пространство
   к поверхности ограничения. Нули в углу — вклад от ограничений.


 KKT — условия для задач с неравенствами


 Множители Лагранжа работают для равенств: g(x) = 0
 Но инженерные задачи часто имеют неравенства: g(x) ≤ 0

 Задача: min f(x) при gᵢ(x) ≤ 0, hⱼ(x) = 0

 Условия Каруша-Куна-Таккера (KKT):
 +----------------------------------------------------------+
 | Необходимые условия для x* быть оптимумом:               |
 |                                                          |
 | 1. СТАЦИОНАРНОСТЬ:  ∇f(x*) + Σμᵢ∇gᵢ(x*) + Σλⱼ∇hⱼ(x*) = 0 |
 |                                                          |
 | 2. ДОПУСТИМОСТЬ:    gᵢ(x*) ≤ 0,  hⱼ(x*) = 0              |
 |                                                          |
 | 3. ДВОЙСТВЕННАЯ ДОПУСТИМОСТЬ:  μᵢ ≥ 0                    |
 |                                                          |
 | 4. ДОПОЛНЯЮЩАЯ НЕЖЁСТКОСТЬ:  μᵢ · gᵢ(x*) = 0  для всех i |
 | (либо ограничение активно gᵢ=0, либо множитель μᵢ=0)     |
 +----------------------------------------------------------+

 Смысл условия 4 (дополняющая нежёсткость):
   • Если x* внутри области (gᵢ < 0), ограничение не влияет → μᵢ = 0
   • Если x* на границе (gᵢ = 0), ограничение активно → μᵢ ≥ 0

 Достаточность: Для выпуклых задач (f выпукла, gᵢ выпуклы, hⱼ линейны)
 KKT условия не только необходимы, но и достаточны.

 Пример: min x² + y²  при x + y ≥ 1 (т.е. g(x,y) = 1 − x − y ≤ 0)
   ∇f = (2x, 2y), ∇g = (−1, −1)
   Из стационарности: 2x − μ = 0, 2y − μ = 0 → x = y
   Из доп. нежёсткости: либо μ=0 (тогда x=y=0, но 0+0<1 — недопустимо),
                       либо g=0 (тогда x=y=½, μ=1>0 — допустимо)
   Ответ: x* = y* = ½, f* = ½


 Вариационное исчисление — Когда неизвестна функция


 Найти функцию y(x), минимизирующую функционал:

   J[y] = ∫ₐᵇ F(x, y, y') dx

 Уравнение Эйлера-Лагранжа:

            ∂F     d  ⎛ ∂F  ⎞
           ---- − --- ⎜----⎟ = 0
            ∂y    dx  ⎝ ∂y' ⎠

 Примеры:
   • Кратчайший путь → прямая
   • Брахистохрона (быстрейший спуск) → циклоида
   • Принцип наименьшего действия → законы механики


 Связь с пространствами


 Оптимизация — это поиск особых точек на пространстве.

 Пространство функций — бесконечномерное.
   Каждая функция y(x) — "точка" в этом пространстве.
   Функционал J[y] — "высота" этой точки.
   Вариационное исчисление = поиск экстремумов в ∞-мерном пространстве.

 Геодезические на многообразии = экстремумы длины пути.
   На сфере: большие круги
   В ото: траектории в гравитационном поле


 Градиентный спуск — численный метод оптимизации


 Идея: Двигаться в направлении наискорейшего убывания функции.

   x_{n+1} = x_n − α · ∇f(x_n)

   α — шаг (learning rate), ∇f — градиент

 Визуализация:

              ╱╲         линии уровня f = const
            ╱    ╲
          ╱   ●---→ ∇f (направление роста)
        ╱        ╲
      ╱           ╲    Спуск идёт против градиента: −∇f
    ╱      ●←------╲
              ↓
              ● минимум

 Выбор шага α:
   • α слишком мал: медленная сходимость
   • α слишком велик: расходимость, "прыжки" через минимум
   • Адаптивный α: метод Армихо, Wolfe conditions

 Варианты:
 +----------------------+----------------------------------------+
 | МЕТОД                | ОСОБЕННОСТЬ                            |
 +----------------------+----------------------------------------+
 | Градиентный спуск    | x ← x − α∇f                            |
 +----------------------+----------------------------------------+
 | Метод Ньютона        | x ← x − H⁻¹∇f (H = гессиан)            |
 |                      | Быстрее, но нужна 2-я производная      |
 +----------------------+----------------------------------------+
 | Стохастический (SGD) | Градиент по случайной подвыборке       |
 |                      | Для больших данных (машинное обучение) |
 +----------------------+----------------------------------------+
 | Adam, RMSprop        | Адаптивный шаг для каждой координаты   |
 |                      | Стандарт в deep learning               |
 +----------------------+----------------------------------------+

 Проблемы:
   • Локальные минимумы (не гарантируется глобальный)
   • Седловые точки (∇f=0, но не экстремум)
   • Плохая обусловленность (вытянутые "овраги")

 Связь с физикой:
   Градиентный спуск ≈ движение шарика по поверхности f(x,y)
   с вязким трением (без инерции)


===============================================================================
Устойчивость и теория управления
===============================================================================

 Зачем нужна устойчивость


 Главный вопрос: Если систему слегка толкнуть, она вернётся или улетит?

 Примеры:
   • Маятник: внизу — устойчив, вверху — неустойчив
   • Спутник: устойчивые и неустойчивые орбиты
   • Теплосеть: выйдет ли на режим после возмущения?
   • Экономика: вернётся ли рынок к равновесию?

 Математическая модель:
   Система описывается дифференциальным уравнением:

                     ẋ = f(x)

   где x — вектор состояния, f — векторное поле
   Точка x* называется положением равновесия, если f(x*) = 0

-------------------------------------------------------------------------------
 Фазовое пространство как "река траекторий"
-------------------------------------------------------------------------------

 Представьте фазовое пространство как бассейн с текущей водой:

   • Векторное поле f(x) — это скорость течения в каждой точке
   • Траектория x(t) — это путь щепки, брошенной в воду
   • Равновесие x* — это точка, где вода стоит (f = 0)
   • Устойчивое равновесие — это сток (вода втекает)
   • Неустойчивое равновесие — это источник (вода вытекает)
   • Предельный цикл — это водоворот, в который втягиваются траектории

 Эта аналогия с гидродинамикой глубока:
   • div(f) < 0 в стоке, div(f) > 0 в источнике
   • rot(f) ≠ 0 вокруг центра/фокуса
   • Теорема Лиувилля: несжимаемый поток сохраняет объём в фазовом простр.

 В гамильтоновой механике фазовый поток буквально несжимаем.


 Типы устойчивости


 +------------------+----------------------------------------------------+
 | ТИП              | ОПРЕДЕЛЕНИЕ                                        |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | По Ляпунову      | ∀ε>0 ∃δ>0: |x(0)−x*|<δ ⇒ |x(t)−x*|<ε ∀t≥0        |
 | (устойчивость)   | "Начали близко — останемся близко навсегда"        |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Асимптотическая  | Устойчива по Ляпунову + x(t) → x* при t → ∞       |
 |                  | "Не просто близко, а стремится к равновесию"       |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Экспоненциальная | |x(t)−x*| ≤ C·e^(−αt)|x(0)−x*| для C,α > 0        |
 |                  | "Сходится экспоненциально быстро"                  |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Глобальная       | Асимптотическая для любых начальных условий        |
 |                  | (не только в окрестности x*)                       |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | BIBO             | Bounded Input → Bounded Output                     |
 |                  | Ограниченный вход даёт ограниченный выход          |
 |                  |                                                    |
 +------------------+----------------------------------------------------+

 Визуализация:

   Устойчива           Асимптотически        Неустойчива
   (по Ляпунову)       устойчива

       ●                   ●                     ○
      ╱|╲                 ╱|╲                   ╱|╲
     ╱ | ╲               ╱ | ╲                 ╱ | ╲
    ●--●--●             ●→-●-←●               ●--●--●→
   не уходит          стремится к           разбегается
   далеко             центру


 Линеаризация и собственные значения


 Идея: Вблизи равновесия x* заменяем нелинейную систему линейной

   ẋ = f(x) ≈ f(x*) + Df(x*)(x − x*) = A(x − x*)

   где A = Df(x*) — матрица Якоби (матрица частных производных)

 Теорема Ляпунова о первом приближении:
 +---------------------------------------------------------------------+
 |                                                                     |
 | Если все собственные значения λᵢ матрицы A имеют Re(λᵢ) < 0,     |
 | то x* АСИМПТОТИЧЕСКИ УСТОЙЧИВО.                                     |
 |                                                                     |
 | Если хотя БЫ одно Re(λᵢ) > 0, то x* неустойчиво.                 |
 |                                                                     |
 | Если Re(λᵢ) ≤ 0 и есть λ с Re(λ) = 0 — нужен дополнительный анализ. |
 |                                                                     |
 +---------------------------------------------------------------------+

 Геометрия на комплексной плоскости:

            Im(λ)
              |
       ○      |      ×     ← × неустойчиво (Re > 0)
              |
   -----------+-----------  Re(λ)
              |
       ○      |      ×     ← ○ устойчиво (Re < 0)
              |

   Все λ в левой полуплоскости ⟺ асимптотическая устойчивость

 Физический смысл:
   Re(λ) < 0: экспоненциальное затухание e^(Re(λ)t)
   Re(λ) > 0: экспоненциальный рост
   Im(λ) ≠ 0: колебания с частотой |Im(λ)|


 Фазовый портрет — визуализация динамики


 Для системы ẋ = Ax (2D) тип поведения определяется собственными числами.
 Шесть базовых типов особых точек:

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   УЗЕЛ (устойчивый)           ФОКУС (устойчивый)       СЕДЛО            |
 |   λ₁, λ₂ < 0, вещ.            λ = α ± iβ, α < 0        λ₁ < 0 < λ₂      |
 |                                                                         |
 |     ↘  ↓  ↙                      ╭--←--╮                  ↑            |
 |       ↘↓↙                      ↙         ↖          ←  ←  ●  →  →      |
 |   → → ●  ← ←                  ↓     ●     ↑              ↓             |
 |       ↗↑↖                      ↘         ↗                             |
 |     ↗  ↑  ↖                      ╰--→--╯           (2 сепаратрисы,     |
 |   (все траектории              (затухающая           притягивающая     |
 |    втягиваются к 0)             спираль внутрь)      и отталкивающая)   |
 |                                                                         |
 |                                                                         |
 |   ЦЕНТР                       УЗЕЛ (неустойч.)        ФОКУС (неустойч.) |
 |   λ = ±iβ (чисто мним.)       λ₁, λ₂ > 0, вещ.        λ = α ± iβ, α > 0 |
 |                                                                         |
 |        ╭-→-╮                   ↖  ↑  ↗                  ╭--→--╮        |
 |      ╭╯  ╭-╮  ╰╮                 ↖↑↗                   ↗        ↘      |
 |     ↑  ╭╯ ╰╮  ↑               ← ← ● → →                ↑    ●    ↓     |
 |     ↑  ╰╮ ╭╯  ↑                 ↙↓↘                     ↖        ↙     |
 |      ╰╮  ╰-╯  ╭╯                ↙  ↓  ↘                  ╰--←--╯       |
 |        ╰-←-╯                  (все разбегаются       (раскручивающаяся  |
 |   (вложенные замкнутые        от нуля наружу)         спираль наружу)  |
 |    орбиты, консерв.)                                                    |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Классификация на плоскости (det A, tr A):

                          tr A
                           ↑
                           |       неуст. фокус
             неуст. узел   |       (det > (tr/2)²)
           (det > 0,      ╱|╲
            tr > 0)      ╱ | ╲    ← парабола det = (tr A / 2)²
                        ╱  |  ╲
                       ╱   |   ╲
          ------------ ----●----- ← центры (tr = 0, det > 0)
                       ╲   |   ╱
                        ╲  |  ╱
             уст. узел   ╲ | ╱   уст. фокус
           (det > 0,      ╲|╱    (det > (tr/2)²)
            tr < 0)        |
                          ----→ det A
                           |
                   СЁДЛА: det A < 0 (λ разных знаков)

 Пример: Маятник (линеаризованный)

   θ̈ + (b/m)θ̇ + (g/L)θ = 0  →  ẋ = Ax, где x = (θ, θ̇)

   A = | 0      1    |     Характ. уравнение: λ² + (b/m)λ + g/L = 0
       |−g/L  −b/m   |

   b = 0: центр (идеальный маятник, колебания без затухания)
   b > 0 малое: фокус (затухающие колебания)
   b большое: узел (апериодическое затухание)


 Функция Ляпунова — обобщённая "энергия"


 Идея: Найти функцию V(x), которая убывает вдоль траекторий

 Определение:
   V: ℝⁿ → ℝ называется функцией Ляпунова для ẋ = f(x) в окрестности x*,
   если:
     1. V(x*) = 0 и V(x) > 0 для x ≠ x* (положительно определена)
     2. V̇(x) = ∇V · f(x) ≤ 0 вдоль траекторий (убывает или постоянна)

 Теоремы Ляпунова:
 +------------------------------------------------------+
 |                                                      |
 | V̇ ≤ 0  ⇒  x* устойчиво по Ляпунову                  |
 |                                                      |
 | V̇ < 0 (кроме x*)  ⇒  x* асимптотически устойчиво |
 |                                                      |
 +------------------------------------------------------+

 Пример: Маятник с трением  ẍ + bẋ + sin(x) = 0

   V = ½ẋ² + (1 − cos x)    ("энергия" = кинетическая + потенциальная)
   V̇ = −bẋ² ≤ 0            (энергия убывает из-за трения)

   Поскольку V̇ ≤ 0 и V̇ = 0 только при ẋ = 0, точка (0, 0) асимптотически
   устойчива (принцип инвариантности Ла-Салля).

 Преимущество:
   Не нужно решать уравнения. Достаточно найти подходящую V.
   Работает для нелинейных систем.

 Сложность:
   Нет общего метода построения V. Это искусство + физическая интуиция.


 Критерий Рауса-Гурвица — устойчивость без вычисления корней


 Задача: Проверить, все ли корни характеристического многочлена
         p(λ) = λⁿ + aₙ₋₁λⁿ⁻¹ + ... + a₁λ + a₀ лежат в левой полуплоскости

 Матрица Гурвица:

        ⎛ aₙ₋₁  aₙ₋₃  aₙ₋₅  ⋯  0   ⎞
        ⎜  1    aₙ₋₂  aₙ₋₄  ⋯  0   ⎟
   H =  ⎜  0    aₙ₋₁  aₙ₋₃  ⋯  0   ⎟
        ⎜  0     1    aₙ₋₂  ⋯  0   ⎟
        ⎝  ⋮     ⋮     ⋮    ⋱  a₀  ⎠

 Критерий:
 +---------------------------------------------------------------+
 |                                                               |
 | Система устойчива ⟺ все главные миноры Δ₁, Δ₂, ..., Δₙ > 0 |
 |                                                               |
 +---------------------------------------------------------------+

 Частные случаи:

   n = 2: λ² + a₁λ + a₀
          Устойчиво ⟺ a₁ > 0 и a₀ > 0

   n = 3: λ³ + a₂λ² + a₁λ + a₀
          Устойчиво ⟺ a₂ > 0, a₀ > 0, a₂a₁ > a₀

 Практическое значение:
   Не нужно искать корни. Только проверять знаки определителей.
   Можно анализировать устойчивость при параметрах (aᵢ = f(k, τ, ...))


 Пространство состояний — современный подход к управлению


 Модель в пространстве состояний:

   ẋ = Ax + Bu      (уравнение состояния)
   y = Cx + Du      (уравнение выхода)

   x ∈ ℝⁿ — вектор состояния (внутренние переменные)
   u ∈ ℝᵐ — вектор входов (управляющие воздействия)
   y ∈ ℝᵖ — вектор выходов (измеряемые величины)
   A, B, C, D — матрицы системы

 Пример: Теплообменник
   x = (T₁, T₂, T₃)ᵀ  — температуры в точках
   u = (Q_вх, G)ᵀ     — тепловая мощность, расход
   y = T_вых          — температура на выходе

 Связь с передаточной функцией:

   G(s) = C(sI − A)⁻¹B + D

   Полюса G(s) = собственные значения A
   Устойчивость: все полюса в левой полуплоскости


 Управляемость и наблюдаемость


 Управляемость: Можно ли из любого x₀ попасть в любое x₁?

   Матрица управляемости:  𝒞 = [B  AB  A²B  ⋯  Aⁿ⁻¹B]

 +-------------------------------------------------+
 | Система УПРАВЛЯЕМА ⟺ rank(𝒞) = n  (полный ранг) |
 +-------------------------------------------------+

 Наблюдаемость: Можно ли восстановить x(t) по y(t)?

   Матрица наблюдаемости:  𝒪 = [C; CA; CA²; ⋯; CAⁿ⁻¹]ᵀ

 +-------------------------------------------------+
 | Система НАБЛЮДАЕМА ⟺ rank(𝒪) = n  (полный ранг) |
 +-------------------------------------------------+

 Двойственность:
   (A, B) управляема ⟺ (Aᵀ, Cᵀ) наблюдаема

 Практический смысл:
   • Неуправляемость: есть "скрытые" моды, на которые нельзя повлиять
   • Ненаблюдаемость: есть "невидимые" моды, которые не видны в выходе


 П, пи, пид-регуляторы — рабочие лошадки автоматики


 Задача: Поддерживать величину y(t) на уровне уставки r(t)
         e(t) = r(t) − y(t) — ошибка регулирования

-------------------------------------------------------------------------------
 1. П-регулятор (пропорциональный)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t)

   Суть: Управляющее воздействие пропорционально ошибке.
         Чем больше отклонение — тем сильнее реакция.

   Пример (бойлер):
   Уставка 50°C, текущая температура 45°C, Kₚ = 2
   Ошибка e = 50 − 45 = 5°C
   Управление u = 2 × 5 = 10 единиц мощности

   ✓ Плюсы: Быстро реагирует
   ✗ Минусы: Остаётся статическая ошибка (не "дожимает" до уставки)

-------------------------------------------------------------------------------
 2. ПИ-регулятор (пропорционально-интегральный)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t) + Kᵢ · ∫e(τ)dτ

   Суть: Добавляется "память" — накопленная сумма прошлых ошибок.
         Даже малая постоянная ошибка со временем накопится
         и увеличит управляющее воздействие.

   Пример (тот же бойлер, Kₚ = 2, Kᵢ = 0.5):

   Шаг 1: T = 45°C, e = 5°C
          Интеграл = 5
          u = 2×5 + 0.5×5 = 10 + 2.5 = 12.5

   Шаг 2: T = 47°C, e = 3°C
          Интеграл = 5 + 3 = 8
          u = 2×3 + 0.5×8 = 6 + 4 = 10

   Шаг 3: T = 49°C, e = 1°C
          Интеграл = 8 + 1 = 9
          u = 2×1 + 0.5×9 = 2 + 4.5 = 6.5

   Интеграл "помнит" прошлые ошибки и доводит до уставки.

   ✓ Плюсы: Устраняет статическую ошибку
   ✗ Минусы: Может перерегулировать (проскочить уставку)

-------------------------------------------------------------------------------
 3. ПИД-регулятор (пропорционально-интегрально-дифференциальный)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t) + Kᵢ · ∫e(τ)dτ + K_d · ė(t)

   Суть: Добавляется реакция на скорость изменения ошибки.
         Если температура быстро приближается к уставке —
         дифференциальная часть "притормозит", чтобы не проскочить.

   Пример (Kₚ = 2, Kᵢ = 0.5, K_d = 1):

   Шаг 1: T = 45°C, e = 5°C, ė = 5 (ошибка появилась)
          u = 2×5 + 0.5×5 + 1×5 = 10 + 2.5 + 5 = 17.5 ← агрессивный старт

   Шаг 2: T = 47°C, e = 3°C, ė = 3−5 = −2 (ошибка уменьшается)
          u = 2×3 + 0.5×8 + 1×(−2) = 6 + 4 − 2 = 8 ← притормаживаем

   Шаг 3: T = 49°C, e = 1°C, ė = 1−3 = −2
          u = 2×1 + 0.5×9 + 1×(−2) = 2 + 4.5 − 2 = 4.5 ← плавный подход

   ✓ Плюсы: Быстрее и точнее, минимум перерегулирования
   ✗ Минусы: Сложнее настраивать, чувствителен к шуму

-------------------------------------------------------------------------------
 Сравнение на примере круиз-контроля
-------------------------------------------------------------------------------

   П:   Чем больше машина отстаёт от заданной скорости, тем сильнее газ.
        Но если дорога в гору — постоянное отставание.

   Пи:  "Помнит", что давно не достигает скорости — добавляет газ
        до полного совпадения. Но может разогнаться и проскочить.

   Пид: Если машина резко разгоняется — сбрасывает газ заранее,
        чтобы не проскочить нужную скорость.

-------------------------------------------------------------------------------
 Итоговая таблица
-------------------------------------------------------------------------------

 +-----------+-------------+----------------+-------------------+
 | РЕГУЛЯТОР | РЕАКЦИЯ     | СТАТИЧ. ОШИБКА | ПЕРЕРЕГУЛИРОВАНИЕ |
 +-----------+-------------+----------------+-------------------+
 | П         | Быстрая     | ЕСТЬ           | Нет или малое     |
 | ПИ        | Медленнее   | нет            | Возможно          |
 | ПИД       | Оптимальная | НЕТ            | Минимальное       |
 +-----------+-------------+----------------+-------------------+

 Настройка (метод Циглера-Никольса и др.):
   1. Найти критический коэффициент Kₚ_крит (на границе устойчивости)
   2. Найти период критических колебаний T_крит
   3. Вычислить Kₚ, Kᵢ, K_d по эмпирическим формулам

 ~95% промышленных систем управления используют ПИД.


 Обратная связь и стабилизация


 Без обратной связи (разомкнутая система):

   r(t) ---→ [Регулятор] ---→ [Объект] ---→ y(t)

   Проблема: Не компенсирует возмущения.

 С обратной связью (замкнутая система):

   r(t) --→⊕--→ [Регулятор] ---→ [Объект] ---→ y(t)
           |                                   |
           +------------- [−1] ←---------------+

 Теорема о стабилизации:
   Если (A, B) управляема, то всегда можно найти матрицу K такую,
   что система с обратной связью u = −Kx имеет любые желаемые полюса.

   Замкнутая система: ẋ = (A − BK)x
   Выбором K можно сделать все собственные значения (A − BK) отрицательными.

 LQR (Linear Quadratic Regulator):
   Оптимальный выбор K, минимизирующий функционал качества:
   J = ∫₀^∞ (xᵀQx + uᵀRu) dt
   Q — штраф за отклонение состояния
   R — штраф за расход управления


 Связь с другими разделами


 +-------------------+----------------------------------------------+
 | РАЗДЕЛ            | СВЯЗЬ С УСТОЙЧИВОСТЬЮ и УПРАВЛЕНИЕМ          |
 +-------------------+----------------------------------------------+
 | Линейная алгебра  | Собственные значения определяют устойчивость |
 |                   | Ранг матриц → управляемость/наблюдаемость    |
 +-------------------+----------------------------------------------+
 | Комплексные числа | Полюса на комплексной плоскости              |
 |                   | Критерий Найквиста (обход в ℂ)               |
 +-------------------+----------------------------------------------+
 | Ряды (Фурье)      | Частотный анализ, диаграммы Боде             |
 |                   | Передаточная функция G(jω)                   |
 +-------------------+----------------------------------------------+
 | XIX Оптимизация   | LQR, оптимальное управление                  |
 |                   | Принцип максимума Понтрягина                 |
 +-------------------+----------------------------------------------+
 | Дифф. уравнения   | Фазовые портреты, бифуркации                 |
 |                   | Нелинейная динамика, хаос                    |
 +-------------------+----------------------------------------------+

-------------------------------------------------------------------------------

 Глубокая аналогия: ПИД-регулятор ↔ arima-модель

 Пид (непрерывное управление) и arima (анализ временных рядов) — это
 один и тот же паттерн из разных миров.

 +-------------------+------------------+-------------------------+
 | КОМПОНЕНТА        | ПИД              | ARIMA                   |
 +-------------------+------------------+-------------------------+
 | Текущее состояние | P (пропорц.)     | AR (авторегрессия)      |
 | "Где я сейчас?"   | e(t)             | xₜ₋₁, xₜ₋₂, ...         |
 +-------------------+------------------+-------------------------+
 | Накопленная       | I (интегральный) | I (интегрирование)      |
 | история           | ∫e(τ)dτ          | ∇⁻¹ = накопление        |
 +-------------------+------------------+-------------------------+
 | Скорость          | D (дифференц.)   | MA (скользящее среднее) |
 | изменения         | de/dt            | εₜ₋₁, εₜ₋₂, ... (шоки)  |
 +-------------------+------------------+-------------------------+

 Оба подхода отвечают на вопрос: как учесть прошлое, настоящее
 и тенденцию изменения для предсказания/управления будущим?

-------------------------------------------------------------------------------

 Глубинный смысл:
   Устойчивость — это топологическое свойство фазового пространства.
   Траектории системы образуют "течение" на многообразии.
   Аттракторы (устойчивые точки/циклы) — особенности этого течения.


===============================================================================
Динамические системы — нелинейная динамика и хаос
===============================================================================

 Нелинейные системы как взгляд на пространство


 Линейные системы ẋ = Ax предсказуемы: узлы, фокусы, сёдла. Реальный
 мир нелинеен: ẋ = f(x). Нелинейность порождает качественно новые явления:
 предельные циклы, бифуркации, хаос.

 Динамическая система — это поток на фазовом пространстве.
 Вместо решения уравнений мы изучаем геометрию этого потока.


 Классификация особых точек нелинейных систем

 Для ẋ = f(x) около неподвижной точки f(x*) = 0 поведение определяется
 якобианом A = Df(x*) — если все Re(λᵢ) ≠ 0 (гиперболическая точка).

 Теорема Гробмана-Хартмана:
   Если все собственные значения A имеют ненулевую действительную часть,
   то нелинейная система топологически эквивалентна линейной ẋ = Ax
   вблизи x*.

 Когда Re(λ) = 0 — линеаризация недостаточна, возникают бифуркации.


 Предельные циклы — устойчивые колебания


 Предельный цикл — изолированная замкнутая траектория, к которой
 стремятся (или от которой убегают) соседние траектории.

 Ключевое отличие от линейного центра: предельный цикл устойчив
 (привлекает), центр — нейтрален (не привлекает и не отталкивает).

 Пример: осциллятор Ван дер Поля
   ẍ − μ(1 − x²)ẋ + x = 0    (μ > 0)

   При малых x: отрицательное демпфирование (раскачивает)
   При больших x: положительное демпфирование (тормозит)
   Результат: устойчивый предельный цикл — автоколебания.

   Физика: сердцебиение, генераторы, хищник-жертва.


 Бифуркации — качественная смена поведения


 Бифуркация — изменение топологии фазового портрета при изменении
 параметра.

 +---------------------+-------------------------------------------+
 | БИФУРКАЦИЯ          | ЧТО ПРОИСХОДИТ                            |
 +---------------------+-------------------------------------------+
 | Седло-узел          | Две неподвижных точки (устойчивая +        |
 | (fold)              | неустойчивая) сливаются и исчезают.        |
 |                     | ẋ = μ − x²:  μ>0: два корня, μ<0: нет.   |
 +---------------------+-------------------------------------------+
 | Вилочная            | Одна точка расщепляется на три.            |
 | (pitchfork)         | ẋ = μx − x³: при μ>0 появляются ±√μ.     |
 |                     | Пример: потеря устойчивости стержня       |
 |                     | при сжатии (задача Эйлера).               |
 +---------------------+-------------------------------------------+
 | Хопфа               | Неподвижная точка теряет устойчивость,     |
 |                     | рождается предельный цикл.                |
 |                     | Собственные значения пересекают мнимую ось.|
 |                     | Пример: начало автоколебаний в контуре.    |
 +---------------------+-------------------------------------------+
 | Удвоение периода    | Предельный цикл теряет устойчивость,       |
 |                     | рождается цикл двойного периода.           |
 |                     | Каскад удвоений → хаос (сценарий           |
 |                     | Фейгенбаума). Универсальная постоянная     |
 |                     | δ ≈ 4.669.                                 |
 +---------------------+-------------------------------------------+


 Хаос — детерминированная непредсказуемость


 Хаотическая система:
   • Детерминирована (нет случайности)
   • Чувствительна к начальным условиям (эффект бабочки)
   • Имеет странный аттрактор (фрактальная структура)

 Показатель Ляпунова λ:
   |δx(t)| ≈ |δx(0)| · e^{λt}

   λ > 0: хаос (близкие траектории расходятся экспоненциально)
   λ < 0: устойчивость (сходятся)
   λ = 0: на границе

 Пример: система Лоренца (модель конвекции)
   ẋ = σ(y − x)
   ẏ = x(ρ − z) − y
   ż = xy − βz

   При σ=10, β=8/3, ρ=28: странный аттрактор — «бабочка Лоренца».

 Практическое значение для инженера:
   Хаос означает, что долгосрочный прогноз невозможен даже с идеальной
   моделью. Но краткосрочный прогноз и статистические свойства —
   предсказуемы. Управление хаотическими системами возможно
   малыми воздействиями (OGY-метод).


===============================================================================
Машинное обучение — геометрия данных
===============================================================================

 Главная идея


   Машинное обучение = геометрия в пространстве признаков

   • Объект = точка в ℝⁿ (n признаков)
   • Обучение = поиск структуры в облаке точек
   • Классификация = разделение точек гиперповерхностью
   • Регрессия = проекция на подпространство
   • Снижение размерности = отображение ℝⁿ → ℝᵏ

   Все методы ML — это геометрические операции над точками в пространстве.


 Словарь:ml ↔ математика


   Веса нейросети W      = координаты точки в пространстве параметров ℝᵈ
   Обучение              = движение по многообразию функции потерь L(W)
   Градиентный спуск     = следование антиградиенту −∇L
   L2-регуляризация      = ограничение ‖W‖² ≤ C (шар в пространстве весов)
   Байесовский подход    = априорная мера на пространстве параметров
   Переобучение          = выход за пределы "типичного множества" данных


 Связь с другими разделами атласа


 ML — не изолированная область. Это применение математики атласа.

 +--------------------+------------------------------------------------+
 | КОНЦЕПЦИЯ ML       | ГДЕ В АТЛАСЕ                                   |
 +--------------------+------------------------------------------------+
 | Линейная регрессия | Проекция на подпространство:                   |
 |                    | ŷ = X(XᵀX)⁻¹Xᵀy — ортогональная проекция       |
 +--------------------+------------------------------------------------+
 | Backpropagation    | Цепное правило дифференцирования:              |
 |                    | ∂L/∂wᵢ = ∂L/∂y · ∂y/∂wᵢ                        |
 +--------------------+------------------------------------------------+
 | Регуляризация      | Априорное распределение = мера:                |
 |                    | L2-регуляризация ↔ гауссов prior на веса       |
 +--------------------+------------------------------------------------+
 | SVM с ядрами       | Гильбертово пространство:                      |
 |                    | K(x,y) — воспроизводящее ядро, ⟨φ(x),φ(y)⟩     |
 +--------------------+------------------------------------------------+
 | PCA                | Собственные векторы:                           |
 |                    | Спектральное разложение ковариационной матрицы |
 +--------------------+------------------------------------------------+
 | Градиентный спуск  | Оптимизация на многообразии:                   |
 |                    | −∇L ∈ T*M → движение в направлении убывания    |
 +--------------------+------------------------------------------------+
 | Softmax            | Экспоненциальное семейство распределений:      |
 |                    | p(y=k) ∝ exp(zₖ) — максимум энтропии           |
 +--------------------+------------------------------------------------+
 | Cross-entropy loss | KL-дивергенция:                                |
 |                    | H(p,q) = −Σp log q — информационная мера       |
 +--------------------+------------------------------------------------+
 | Нейросеть          | Композиция функций: f = fₙ ∘ ... ∘ f₁          |
 |                    | Универсальная аппроксимация                    |
 +--------------------+------------------------------------------------+

 Понимая эти связи, мы видим: ML — это не "чёрный ящик", а геометрия.


-------------------------------------------------------------------------------
Фундаментальные концепции
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Разделение данных
-------------------------------------------------------------------------------

 Аналогия с экзаменом


   Плохой подход:
   Учишь ответы на конкретные вопросы из прошлогодних экзаменов.
   На тех же вопросах получаешь 100%. На реальном экзамене — провал.

   Хороший подход:
   Учишь материал глубоко. Проверяешься на новых задачах.
   Если хорошо справляешься с новыми задачами → реально понял материал.

   Модель должна работать на данных, которые не видела при обучении.


Train / Validation / Test:

    Исходные данные (100%):
    +- 70% → Обучающая (training)
    |         Модель "видит" эти данные и "учится" на них
    |
    +- 10% → Валидационная (validation)
    |         Подбор гиперпараметров, сравнение моделей
    |         Можно смотреть многократно
    |
    +- 20% → Тестовая (test)
              Финальная проверка один раз в конце
              Честная оценка качества

Чего никогда нельзя делать:
    ✗ Обучать модель на тесте
    ✗ Подбирать гиперпараметры по результатам на тесте
    ✗ Многократно проверять на тесте (тогда он становится валидацией)


Переобучение и недообучение
-------------------------------------------------------------------------------

 Переобучение (Overfitting)


   Модель "запоминает" обучающие данные вместо выучивания закономерностей.

   Симптомы:
   • Отличное качество на train (99%)
   • Плохое качество на test (70%)
   • Большой разрыв между train и test

   Причины: слишком сложная модель, мало данных, нет регуляризации

   Геометрически:

        •  •  класс 1
      ╱-|-╲╱-|-╲  ← граница "изогнулась" чтобы пройти через каждую точку
     --•---•---•--
        •  •  класс 0

   Модель подстроилась под шум в данных, а не под истинную зависимость.


 Недообучение (Underfitting)


   Модель слишком простая и не может выучить закономерности.

   Симптомы:
   • Плохое качество на train (70%)
   • Плохое качество на test (68%)
   • оба плохие, разрыв маленький

   Причины: слишком простая модель, слишком сильная регуляризация

   Геометрически:

          •  •  класс 1
        •  ○○○  •
          •  •  класс 0 (○) окружает класс 1
       ----+---- ← прямая линия не может разделить такие данные


Кросс-валидация (K-Fold CV)
-------------------------------------------------------------------------------

Проблема: validation set может быть "неудачным" — слишком простым или сложным.

Решение: усреднить по K разным разбиениям.

    +----+----+----+----+----+
    | F1 | F2 | F3 | F4 | F5 |
    +----+----+----+----+----+

    Итерация 1: обучаем на F2,F3,F4,F5  →  тестируем на F1
    Итерация 2: обучаем на F1,F3,F4,F5  →  тестируем на F2
    ...
    Итерация 5: обучаем на F1,F2,F3,F4  →  тестируем на F5

    Финальная оценка = среднее по 5 итерациям
    Стандартное отклонение = мера стабильности модели

    +=========================================================+
    | Низкий std = модель работает одинаково на разных данных |
    | Высокий std = модель чувствительна к выбору train       |
    +=========================================================+


-------------------------------------------------------------------------------
Регуляризация
-------------------------------------------------------------------------------

Регуляризация = ограничение сложности модели для борьбы с переобучением.

L2 (Ridge): L(θ) = Loss(θ) + λ‖θ‖²
    Сжимает веса к нулю, но не обнуляет

L1 (Lasso): L(θ) = Loss(θ) + λ‖θ‖₁
    Обнуляет часть весов → отбор признаков

Геометрическая интерпретация:

         θ₂                              θ₂
         ↑                               ↑
         |    ╱---╲                      |    ╱---╲
         |   ╱  ●  ╲ ← OLS решение       |   ╱  ●  ╲
         |  |   ╲   |                    |  |   ╱| |
         |  |    ○  | ← Ridge (на круге) |  |  ╱ ○ | ← Lasso (на ромбе)
         |   ╲     ╱                     |   ╲╱   ╱
         |    ⊙    | ← ограничение       |    ◆   |
         +------------→ θ₁               +------------→ θ₁
              Ridge                           Lasso

    Ridge: касание эллипса с кругом → веса сжимаются, но ≠ 0
    Lasso: касание эллипса с ромбом → касание в углу → некоторые веса = 0


-------------------------------------------------------------------------------
Линейная регрессия — геометрия проекции
-------------------------------------------------------------------------------

Постановка:

    Дано: X ∈ ℝⁿˣᵖ (n объектов, p признаков), y ∈ ℝⁿ (отклик)
    Найти: θ ∈ ℝᵖ такой что ŷ = Xθ минимизирует ‖y - ŷ‖²

Геометрическая интерпретация:

    +============================================+
    | Линейная регрессия = проекция вектора y    |
    | на подпространство, натянутое на столбцы X |
    +============================================+

         y (реальный вектор)
         ●
        ╱|╲
       ╱ | ╲
      ╱  |  ╲
     ╱   |90°╲
    ╱----●----╲--------→ подпространство L = span(X)
         ŷ (проекция)
         ↑
         Это перпендикуляр.

Условие оптимальности: остаток (y - ŷ) ⊥ подпространству L

    Xᵀ(y - Xθ) = 0
    Xᵀy = XᵀXθ
    θ* = (XᵀX)⁻¹Xᵀy ← нормальное уравнение


-------------------------------------------------------------------------------
Логистическая регрессия — вероятностная классификация
-------------------------------------------------------------------------------

Постановка:

    Дано: X ∈ ℝⁿˣᵖ, y ∈ {0,1}ⁿ (бинарные метки)
    Найти: P(y=1|x) для новых объектов

Почему не линейная регрессия?

    Проблема 1: предсказания выходят за [0,1]
        Пациент с очень высоким давлением: ŷ = 1.8 — но это не вероятность.

    Проблема 2: выбросы ломают модель
        Линейная регрессия "тянется" к выбросам

Решение — сигмоида:

    Линейная часть         Сигмоида           Вероятность
    z = θᵀx        ---→    σ(z) = 1/(1+e⁻ᶻ)  ---→   P(y=1)
    z ∈ (-∞, +∞)                                   ∈ [0,1]

    z = -10  →  P ≈ 0     (почти уверены: класс 0)
    z = 0    →  P = 0.5   (неопределённость)
    z = +10  →  P ≈ 1     (почти уверены: класс 1)

Функция потерь (Cross-Entropy):

    L(θ) = -Σᵢ[yᵢ log(p̂ᵢ) + (1-yᵢ) log(1-p̂ᵢ)]

    где p̂ᵢ = σ(θᵀxᵢ)

Почему cross-entropy, а не MSE? (критически важно)

    Градиенты для модели ŷ = σ(z), z = θᵀx:

    MSE:              ∂L/∂z = 2(ŷ - y) · σ(z)(1-σ(z))
    Cross-entropy:    ∂L/∂z = ŷ - y

    Ключевой факт: σ'(z) = σ(z)(1-σ(z)) → ноль при |z|→∞

    Насыщение сигмоиды:

        z       σ(z)    σ'(z)
        -----   -----   -----
        -10     0.00005 0.00005  ← почти ноль.
          0     0.50000 0.25000  ← максимум
        +10     0.99995 0.00005  ← почти ноль.

    Критический пример:

        Правильный ответ: y = 1
        Модель предсказывает: z = -10 → σ(-10) ≈ 0

        Ошибка огромная. (предсказали 0 вместо 1)

        MSE градиент:  2(0 - 1) · 0.00005 ≈ -0.0001  ← микроскопический.
        CE градиент:   0 - 1 = -1.0                   ← нормальный.

    +===============================================================+
    | При большой ошибке MSE даёт маленький градиент → застревание. |
    | Cross-entropy: производная σ'(z) сокращается при дифференц.   |
    | оставляя чистый градиент (ŷ - y)                              |
    +===============================================================+

    Математически: CE = negative log-likelihood для Bernoulli:
    P(y|x) = σ(z)ʸ · (1-σ(z))¹⁻ʸ  →  -log P = L_CE

Граница решений:

    Граница = {x : P(y=1|x) = 0.5} = {x : θᵀx = 0} ← гиперплоскость.

         •  •  класс 1
         •  •
    -----------------  ← граница θᵀx = 0
         •  •
         •  •  класс 0


-------------------------------------------------------------------------------
SVM — максимальный зазор
-------------------------------------------------------------------------------

Идея: найти гиперплоскость с максимальным зазором (margin) между классами.

         •  •  класс 1
        ===========  ← margin (зазор)
    ---------------  ← разделяющая гиперплоскость wᵀx + b = 0
        ===========
         •  •  класс 0

Задача оптимизации:

    max  margin = 2/‖w‖
    s.t. yᵢ(wᵀxᵢ + b) ≥ 1  для всех i

    Эквивалентно: min ½‖w‖²

Опорные вектора (Support Vectors):

    Точки, лежащие на границе margin (yᵢ(wᵀxᵢ + b) = 1).
    Только они определяют решение.

    ● ← опорный вектор (на границе margin)
    • ← обычная точка (не влияет на решение)

Kernel trick:

    Для нелинейно разделимых данных: проецируем в пространство большей
    размерности, где данные становятся линейно разделимы.

    Фокус: не вычисляем φ(x) явно, а используем ядро K(x,x') = ⟨φ(x),φ(x')⟩

    Популярные ядра:
    • Линейное: K(x,x') = xᵀx'
    • RBF (Гауссово): K(x,x') = exp(-γ‖x-x'‖²)
    • Полиномиальное: K(x,x') = (xᵀx' + c)ᵈ


-------------------------------------------------------------------------------
KNN — классификация по соседям
-------------------------------------------------------------------------------

Идея: "Скажи мне, кто твои соседи — и я скажу, кто ты."

Алгоритм:

    1. Для нового объекта x найти K ближайших соседей в обучающей выборке
    2. Класс x = голосование большинства среди K соседей

    K=1: граница = диаграмма Вороного
    K большое: граница сглаживается

Особенности:

    ✓ Нет обучения (lazy learning)
    ✓ Естественная нелинейная граница
    ✓ Легко добавлять новые данные

    ✗ Медленное предсказание O(nN) где N — размер обучающей выборки
    ✗ Проклятие размерности (в высоких измерениях все точки "далеко")
    ✗ Чувствителен к масштабу признаков → нужна нормализация


-------------------------------------------------------------------------------
PCA — снижение размерности
-------------------------------------------------------------------------------

Постановка:

    Дано: X ∈ ℝⁿˣᵖ (центрированные данные)
    Найти: направления w₁, w₂, ..., wₖ максимальной дисперсии

Главная теорема:

    +============================================================+
    | Направления максимальной дисперсии =                       |
    | = собственные вектора ковариационной матрицы S = XᵀX/(n-1) |
    |                                                            |
    | Дисперсия вдоль PCᵢ = собственное значение λᵢ              |
    +============================================================+

Вывод:

    max  Var(Xw) = wᵀSw
    s.t. ‖w‖ = 1

    Лагранжиан: ℒ = wᵀSw - λ(wᵀw - 1)
    ∂ℒ/∂w = 2Sw - 2λw = 0

    Sw = λw ← задача на собственные вектора.

Геометрическая интуиция:

    x₂
     ↑     PC1 (направление макс. дисперсии)
     |    ╱●
     |  ●╱  ●
     | ●╱ ●  ●    ← PC1 проходит вдоль "длины" облака
     |●╱ ●   ●       PC2 ⊥ PC1
     +╱----------→ x₁
      ╲
       PC2

    Проекция на PC1 сохраняет максимум информации о различиях между точками.

Почему дисперсия = информация?

    Большая дисперсия → точки хорошо различимы → много информации
    Малая дисперсия → точки "слиплись" → мало информации
    Нулевая дисперсия = константа → нет информации

Связь с SVD:

    X = UΣVᵀ

    • Столбцы V = направления главных компонент (loadings)
    • Σᵢᵢ² / (n-1) = собственные значения S = дисперсии
    • Столбцы U·Σ = проекции на главные компоненты (scores)


-------------------------------------------------------------------------------
Сравнение методов классификации
-------------------------------------------------------------------------------

+---------------------+-------------------+---------------------+-----------+
| Аспект              | Логистич. регрес. | SVM                 | KNN       |
+---------------------+-------------------+---------------------+-----------+
| Подход              | Вероятностная     | Геометрич. (margin) | Соседи    |
| Граница             | Линейная          | Линейная/нелинейная | Любая     |
| Обучение            | Итеративное       | Квадр. оптимизация  | Нет       |
| Предсказание        | Быстро O(p)       | Быстро O(#SV·p)     | Медленно  |
| Вероятности         | ✓ Естественные    | ✗ Нет               | ✓ Прибл.  |
| Интерпретируемость  | ✓ Высокая         | ~ Средняя           | ✓ Высокая |
| Высокие размерности | ✓ Хорошо          | ✓ Хорошо            | ✗ Плохо   |
| Большие данные      | ✓ Хорошо          | ✗ Плохо             | ✗ Плохо   |
+---------------------+-------------------+---------------------+-----------+

Рекомендации:

    Логистическая регрессия:
    ✓ Нужны вероятности, важна интерпретируемость, линейная граница достаточна
    ✓ Всегда начинай с неё как baseline.

    SVM:
    ✓ Средний объём данных (n < 10,000), высокая размерность
    ✓ Нелинейная граница (с kernel), нужна робастность к выбросам

    KNN:
    ✓ Малые данные, сложная граница, нет времени настраивать модель
    ✓ Рекомендательные системы, поиск похожих объектов


===============================================================================
Нейронные сети — композиция нелинейных преобразований
===============================================================================

-------------------------------------------------------------------------------
Идея и структура
-------------------------------------------------------------------------------

Почему нужны нейросети?

    Линейные методы ограничены: если зависимость y = sin(x₁) + x₂³,
    линейная модель не справится.

    Нейросеть = композиция линейных преобразований и нелинейных активаций.

Архитектура (один скрытый слой):

    f(x) = W₂ · σ(W₁x + b₁) + b₂

    где:
    • W₁ ∈ ℝʰˣⁿ, b₁ ∈ ℝʰ  (входной → скрытый слой, h нейронов)
    • σ: ℝ → ℝ             (нелинейная активация, поэлементно)
    • W₂ ∈ ℝᵏˣʰ, b₂ ∈ ℝᵏ  (скрытый → выходной слой)

    x ∈ ℝⁿ  →  [W₁, b₁]  →  z ∈ ℝʰ  →  [σ]  →  a ∈ ℝʰ  →  [W₂, b₂]  →  y ∈ ℝᵏ
     вход       аффинное      линейная    нелинейность   аффинное       выход

Геометрическая интерпретация:

    • W₁x + b₁ = аффинное преобразование ℝⁿ → ℝʰ (поворот, растяжение, сдвиг)
    • σ = нелинейная деформация ("складывание" пространства)
    • W₂ = линейная комбинация ℝʰ → ℝᵏ

    Композиция даёт нелинейное отображение ℝⁿ → ℝᵏ.

Функции активации:

    ReLU(z) = max(0, z)      ← самая популярная, "складывает" половину пространства
    σ(z) = 1/(1+e⁻ᶻ)         ← сигмоида, сжимает в (0,1)
    tanh(z) = (eᶻ-e⁻ᶻ)/(eᶻ+e⁻ᶻ)  ← сжимает в (-1,1)

Universal Approximation Theorem:

    Нейросеть с одним скрытым слоем и достаточным числом нейронов
    может аппроксимировать любую непрерывную функцию.

 Два пространства в нейросетях — ключевая идея


 В ML есть два разных пространства, и их нельзя путать:

-------------------------------------------------------------------------------
 Пространство данных (input space)
-------------------------------------------------------------------------------

   • Каждая точка = один пример (изображение, текст, измерение)
   • Размерность = число признаков (784 для MNIST, миллионы для LLM)
   • Нейросеть деформирует это пространство, чтобы классы стали разделимы

   Картинка: облако точек двух цветов. Изначально перемешаны.
   После нескольких слоёв — разделены гиперплоскостью.

       До обучения: после обучения:
       • ○ • ○ •                 • • • | ○ ○ ○
       ○ • ○ • ○                 • • • | ○ ○ ○
       • ○ • ○ •                 • • • | ○ ○ ○
       (перемешано)              (линейно разделимо)

-------------------------------------------------------------------------------
 Пространство весов (parameter space) — здесь происходит обучение
-------------------------------------------------------------------------------

   • Каждая точка = один набор весов θ = (W₁, b₁, W₂, b₂, ...)
   • Размерность = общее число параметров (миллионы или миллиарды)
   • Функция потерь L(θ) — это "высота" в каждой точке

   Ландшафт функции потерь:

             ╱╲      ╱╲
            ╱  ╲    ╱  ╲         ← локальные максимумы (плохо)
       ----╱----╲--╱----╲----
              ╲╱                 ← седловые точки (много)
           глоб.мин              ← хотим попасть сюда

   Обучение = путешествие по этому ландшафту в поисках минимума.
   Градиентный спуск = "скатываемся вниз по склону".

 Почему это сложно:
   • Ландшафт в миллионах измерений — нельзя визуализировать
   • Много локальных минимумов и седловых точек
   • Градиент может быть огромным или исчезающе малым

 Удивительный факт:
   В высокой размерности большинство критических точек — сёдла, не минимумы.
   Поэтому градиентный спуск обычно находит путь к хорошему решению.


 Тензор в ML ≠ тензор в математике


 В PyTorch/TensorFlow "тензор" — это просто многомерный массив чисел:

   torch.tensor([1, 2, 3])           # "1D-тензор" = вектор
   torch.tensor([[1,2], [3,4]])      # "2D-тензор" = матрица
   torch.randn(3, 4, 5)              # "3D-тензор" = 3×4×5 массив

 В математике/физике тензор — это объект, который:
   • Преобразуется по определённому закону при смене координат
   • Ковариантные индексы: T'ᵢ = (∂xʲ/∂x'ⁱ) Tⱼ
   • Контравариантные: T'ⁱ = (∂x'ⁱ/∂xʲ) Tʲ

 +----------------------+-------------------+----------------------------+
 |                      | ML "ТЕНЗОР"       | МАТЕМАТИЧЕСКИЙ ТЕНЗОР      |
 +----------------------+-------------------+----------------------------+
 | Что это?             | Контейнер данных  | Геометрический объект      |
 | Зависит от базиса?   | Да (просто числа) | Нет (инвариантен)          |
 | Закон преобразования | Нет               | Да (ко/контравариантность) |
 | Пример               | Батч изображений  | Метрический тензор gᵢⱼ     |
 +----------------------+-------------------+----------------------------+

 Почему это важно:
   В обычном ML ковариантность не нужна — нет "смены координат".
   Но в Geometric Deep Learning (графовые сети, эквивариантные CNN)
   требуется настоящая тензорная структура: выход должен правильно
   преобразовываться при повороте/отражении входа.


-------------------------------------------------------------------------------
Backpropagation — обратное распространение ошибки
-------------------------------------------------------------------------------

 Интуиция: "эхо ошибки"


 Представьте: вы стреляете из лука и промахиваетесь.

   Промах (ошибка на выходе) = вы попали на 10 см левее.

   Кто виноват?
   • Может, рука дрогнула при выстреле (последний "слой")
   • Может, вы плохо прицелились (средний "слой")
   • Может, неправильно встали (первый "слой")

   Backpropagation = распределение вины от конца к началу.

   Ошибка "отражается" от выхода и идёт назад через сеть,
   как эхо, затухая или усиливаясь на каждом слое.

         вход → [слой 1] → [слой 2] → [слой 3] → выход
                                                  ↓
                                              Ошибка
                                                  ↓
         ∂L/∂W₁ ← [δ₁] ← [δ₂] ← [δ₃] ← ∂L/∂выход
                   ↑        ↑        ↑
              затухает  (или усиливается) на каждом слое

 δ (дельта) = "сколько вины" несёт этот нейрон за итоговую ошибку.

 Проблема затухания градиента:
   Если каждый слой умножает δ на число < 1, то δ₁ ≈ 0.
   Первые слои не учатся. (эхо затухло)

   ReLU решает эту проблему: градиент либо 0, либо 1 (не затухает).


Задача: вычислить ∇L(θ) для всех параметров θ = {W₁, b₁, W₂, b₂, ...}

Идея: применить chain rule для композиции функций.

    Для f = g ∘ h:  ∂f/∂x = (∂g/∂h) · (∂h/∂x)

Алгоритм:

    Forward pass (сохраняем промежуточные значения):
    для i = 1 до L:
        aⁱ = Wᵢzⁱ⁻¹ + bᵢ       (линейное преобразование)
        zⁱ = σᵢ(aⁱ)            (активация)

    Backward pass (вычисляем градиенты от конца к началу):

    δᴸ = ∂L/∂aᴸ               (градиент на последнем слое)

    для i = L-1 до 1:
        δⁱ = (Wᵢ₊₁ᵀ · δⁱ⁺¹) ⊙ σ'ᵢ(aⁱ)    (рекуррентное вычисление)

    Градиенты по параметрам:
        ∂L/∂Wᵢ = δⁱ · (zⁱ⁻¹)ᵀ            (внешнее произведение)
        ∂L/∂bᵢ = δⁱ

Вычислительная сложность: такая же как forward pass. O(Σᵢ nᵢ₋₁ · nᵢ)

Численный пример:

    Сеть: ℝ¹ → ℝ¹, один скрытый нейрон, ReLU
    f(x) = w₂ · ReLU(w₁x + b₁) + b₂

    Параметры: w₁=1, b₁=-1, w₂=2, b₂=0
    Данные: x=2, y=5

    Forward:
    a¹ = w₁·x + b₁ = 1·2 + (-1) = 1
    z¹ = ReLU(1) = 1
    ŷ = w₂·z¹ + b₂ = 2·1 + 0 = 2
    L = ½(ŷ-y)² = ½(2-5)² = 4.5

    Backward:
    ∂L/∂ŷ = ŷ - y = -3

    ∂L/∂w₂ = ∂L/∂ŷ · z¹ = -3 · 1 = -3
    ∂L/∂b₂ = ∂L/∂ŷ · 1 = -3

    δ¹ = ∂L/∂ŷ · w₂ · ReLU'(a¹) = -3 · 2 · 1 = -6

    ∂L/∂w₁ = δ¹ · x = -6 · 2 = -12
    ∂L/∂b₁ = δ¹ · 1 = -6


-------------------------------------------------------------------------------
Оптимизация
-------------------------------------------------------------------------------

Градиентный спуск:

    θₜ₊₁ = θₜ - η · ∇L(θₜ)

    η = learning rate (скорость обучения)

Варианты:

    Batch GD:     градиент по всей выборке — точный, но медленный

    SGD:          градиент по одному примеру — шумный, но быстрый

    Mini-batch:   градиент по пачке B примеров — компромисс (B=32,64,128)

Momentum:

    vₜ = β·vₜ₋₁ + ∇L(θₜ)        (накопление "скорости")
    θₜ₊₁ = θₜ - η·vₜ

    Аналогия: шар, катящийся с горы с инерцией

Adam (Adaptive Moment Estimation):

    mₜ = β₁·mₜ₋₁ + (1-β₁)·∇L             (среднее градиента)
    vₜ = β₂·vₜ₋₁ + (1-β₂)·(∇L)²          (среднее квадрата градиента)

    m̂ₜ = mₜ / (1-β₁ᵗ),  v̂ₜ = vₜ / (1-β₂ᵗ)   (коррекция смещения начальной 0)

    θₜ₊₁ = θₜ - η · m̂ₜ / (√v̂ₜ + ε)

    Каждый параметр имеет свой адаптивный learning rate.
    Стандартные значения: β₁ = 0.9, β₂ = 0.999, ε = 10⁻⁸.


-------------------------------------------------------------------------------
Свёрточные нейросети (CNN)
-------------------------------------------------------------------------------

Проблема полносвязных сетей для изображений:

    MNIST 28×28: 784 входа → W₁ ∈ ℝ¹²⁸ˣ⁷⁸⁴ = 100k параметров
    ImageNet 224×224×3: 150,528 входов → W₁ ∈ ℝ¹²⁸ˣ¹⁵⁰⁵²⁸ = 19M параметров.

    и это только один слой.

Идеи CNN:

    1. Локальность: каждый нейрон смотрит только на окрестность k×k
    2. Weight sharing: один фильтр используется для всех позиций
    3. Иерархия: края → текстуры → части → объекты

Свёртка:

    Y[i,j] = Σₘ Σₙ K[m,n] · X[i+m, j+n]

    Геометрически: скалярное произведение ядра K с патчем изображения

Пример (детектор вертикального края):

    X = [1  2  3  0]     K = [-1  1]
        [0  1  2  3]         [-1  1]
        [3  0  1  2]
        [4  2  0  1]

    Y[0,0] = (-1)·1 + 1·2 + (-1)·0 + 1·1 = 2   (есть вертикальный край)

Pooling:

    Max Pooling: Y[i,j] = max{X[2i+m, 2j+n] | m,n ∈ {0,1}}

    • Уменьшает размерность в 2 раза по каждой оси
    • Обеспечивает локальную инвариантность к сдвигам
    • Нет обучаемых параметров

Типичная архитектура:

    Input → [Conv-ReLU-Pool]×N → Flatten → FC → Output

    Пример LeNet-5:
    INPUT 28×28×1 → CONV1 24×24×20 → POOL 12×12×20 →
    → CONV2 8×8×50 → POOL 4×4×50 → FLATTEN 800 → FC 500 → FC 10

Экономия параметров:

    Свёрточный слой k=3, Cᵢₙ=64, Cₒᵤₜ=128:
        Параметры = 3² · 64 · 128 + 128 ≈ 74k

    Полносвязный слой для изображения 32×32×64 → 32×32×128:
        Параметры = (32·32·64) · (32·32·128) = 8.6 миллиарда.

    CNN экономит параметры на 4-5 порядков.

Иерархия признаков:

    Слой 1-2:   Края, углы, простые градиенты (receptive field 3-7 px)
    Слой 3-5:   Текстуры, повторяющиеся паттерны (RF 20-50 px)
    Слой 6-8:   Части объектов (глаза, колёса) (RF 100+ px)
    Финальный:  Классификация по признакам высокого уровня


-------------------------------------------------------------------------------
Сравнение классических методов и нейросетей
-------------------------------------------------------------------------------

+--------------------+------------------------+--------------------------+
| Критерий           | Линейные методы        | Нейросети                |
+--------------------+------------------------+--------------------------+
| Параметры          | O(n)                   | O(h·n) или больше        |
| Решение            | Closed form или выпукл | Итеративное, невыпуклое  |
| Выразительность    | Только линейные        | Произвольные непрерывные |
| Интерпретируемость | Высокая                | Низкая                   |
| Данные             | Работает на малых      | Требует много данных     |
| Вычисления         | Легко на CPU           | Требует GPU              |
+--------------------+------------------------+--------------------------+

Когда что использовать:

    Линейные методы:
    ✓ n < 1000 признаков
    ✓ Зависимость близка к линейной
    ✓ Важна интерпретируемость
    ✓ Мало данных (N < 10,000)

    Нейросети:
    ✓ n > 1000 признаков (изображения, текст)
    ✓ Нелинейные зависимости
    ✓ Много данных (N > 100,000)
    ✓ Есть GPU


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
              ЧАСТЬ V: ЧИСЛЕННЫЕ МЕТОДЫ — ИНСТРУМЕНТЫ ДЛЯ ВЫЧИСЛЕНИЙ
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

 Зачем этот раздел


 Атлас до сих пор был про понимание математики.
 Этот раздел — про вычисления: готовые алгоритмы для практических задач.

 Каждый метод описан так:
   1. Задача (что решаем)
   2. Алгоритм (пошагово)
   3. Пример с числами
   4. Когда использовать / когда не использовать
   5. Код (псевдокод или Python-подобный)


 Связь с теорией — почему методы работают


 Численные методы — не просто "рецепты". За каждым стоит теорема.

 +-----------------------+---------------------------------------------+
 | МЕТОД                 | ТЕОРЕТИЧЕСКОЕ ОБОСНОВАНИЕ                   |
 +-----------------------+---------------------------------------------+
 | Бисекция              | Теорема о промежуточном значении:           |
 |                       | непрерывная функция принимает все значения  |
 |                       | между f(a) и f(b)                           |
 +-----------------------+---------------------------------------------+
 | Ньютон                | Теорема Банаха о сжимающем отображении:     |
 |                       | итерации xₙ₊₁ = g(xₙ) сходятся, если g —    |
 |                       | сжатие. Ньютон: g(x) = x − f(x)/f'(x)       |
 +-----------------------+---------------------------------------------+
 | Гаусс (LU-разложение) | Факторизация в группе GL(n):                |
 |                       | любая обратимая матрица = произведение      |
 |                       | элементарных (перестановка, масштаб, сдвиг) |
 +-----------------------+---------------------------------------------+
 | Квадратуры            | Интеграл как линейный функционал:           |
 |                       | ∫ω — ковектор на пространстве функций.      |
 |                       | Квадратуры — конечномерное приближение      |
 +-----------------------+---------------------------------------------+
 | FFT                   | Ортогональность exp(2πikn/N) в L²:          |
 |                       | дискретный аналог разложения Фурье.         |
 |                       | Быстрота = рекурсия по группе ℤ/Nℤ          |
 +-----------------------+---------------------------------------------+
 | Рунге-Кутта           | Разложение Тейлора + согласование           |
 |                       | коэффициентов для максимального порядка     |
 +-----------------------+---------------------------------------------+
 | Градиентный спуск     | Производная как ковектор:                   |
 |                       | ∇f ∈ T*M указывает направление роста.       |
 |                       | Метрика g переводит его в вектор −g⁻¹∇f     |
 +-----------------------+---------------------------------------------+

 Понимание теории помогает:
   • Предсказать, когда метод НЕ сработает
   • Выбрать правильный метод для задачи
   • Оценить погрешность без эксперимента


===============================================================================
Решение нелинейных уравнений f(x) = 0
===============================================================================

 Метод бисекции (деления пополам)


 Задача: Найти корень f(x) = 0 на отрезке [a, b], где f(a) и f(b) разных
         знаков.

 Идея: Делим отрезок пополам, выбираем половину с разными знаками, повторяем.

 Алгоритм:
   1. c = (a + b) / 2
   2. Если f(c) ≈ 0 — нашли корень
   3. Если f(a) и f(c) разных знаков — корень в [a, c], берём b = c
   4. Иначе — корень в [c, b], берём a = c
   5. Повторяем до нужной точности

 Пример: f(x) = x³ − x − 1, найти корень на [1, 2]

   Проверка: f(1) = 1 − 1 − 1 = −1 < 0
             f(2) = 8 − 2 − 1 = 5 > 0   ✓ Разные знаки

   Шаг 1: c = 1.5, f(1.5) = 3.375 − 1.5 − 1 = 0.875 > 0
          Корень в [1, 1.5]

   Шаг 2: c = 1.25, f(1.25) = 1.953 − 1.25 − 1 = −0.297 < 0
          Корень в [1.25, 1.5]

   Шаг 3: c = 1.375, f(1.375) = 2.600 − 1.375 − 1 = 0.224 > 0
          Корень в [1.25, 1.375]

   Шаг 4: c = 1.3125, f(1.3125) ≈ −0.051 < 0
          Корень в [1.3125, 1.375]

   … Продолжаем до нужной точности. Ответ: x ≈ 1.3247

 Сходимость: Линейная. Каждая итерация уменьшает интервал вдвое.
             За n итераций: погрешность ≤ (b−a)/2ⁿ
             Для 6 знаков после запятой нужно ≈ 20 итераций.

 ✓ Когда использовать: Всегда работает, если есть смена знака
 ✗ Когда не использовать: Медленно, не работает для кратных корней

 Код:
   while b - a > eps:
       c = (a + b) / 2
       if f(a) * f(c) < 0:
           b = c
       else:
           a = c
   return c


 Метод Ньютона (касательных)


 Задача: Найти корень f(x) = 0, имея начальное приближение x₀.

 Идея: Заменяем кривую касательной, находим пересечение с осью x.

 Формула:

   xₙ₊₁ = xₙ − f(xₙ) / f'(xₙ)

 Геометрически:

       y
       |     ╱
       |    ╱ f(x)
       |   ●----------------- касательная в xₙ
       |  ╱|
       | ╱ |
       |╱  |
   ----●---+---------------→ x
      x*   xₙ₊₁  xₙ

   Касательная: y = f(xₙ) + f'(xₙ)(x − xₙ)
   Пересечение с y = 0: xₙ₊₁ = xₙ − f(xₙ)/f'(xₙ)

 Пример: f(x) = x² − 2 (ищем √2), x₀ = 1

   f(x) = x² − 2,  f'(x) = 2x

   Шаг 1: x₁ = 1 − (1 − 2)/(2·1) = 1 − (−1)/2 = 1.5

   Шаг 2: x₂ = 1.5 − (2.25 − 2)/(2·1.5) = 1.5 − 0.25/3 = 1.4167

   Шаг 3: x₃ = 1.4167 − (2.007 − 2)/(2·1.4167) = 1.4142

   Уже 4 знака после 3 итераций. (√2 ≈ 1.41421356)

 Сходимость: Квадратичная. Число верных цифр удваивается каждую итерацию.

 ✓ Когда использовать: Быстро, если хорошее начальное приближение
 ✗ Когда не использовать:
   • f'(x) = 0 около корня (деление на 0)
   • Плохое x₀ (может уйти не туда или зациклиться)
   • Нужно уметь вычислять производную

 Код:
   x = x0
   for i in range(max_iter):
       x = x - f(x) / df(x)
       if abs(f(x)) < eps:
           break
   return x


 Метод секущих


 Идея: Как Ньютон, но производную заменяем разностным отношением.
       Не нужно знать f'(x)!

 Формула:

   xₙ₊₁ = xₙ − f(xₙ) · (xₙ − xₙ₋₁) / (f(xₙ) − f(xₙ₋₁))

 Сходимость: Сверхлинейная (порядок ≈ 1.618, золотое сечение)
             Медленнее Ньютона, но не нужна производная.

 ✓ Когда использовать: Когда f'(x) сложно вычислить


 Сравнение методов
+----------+----------------+----------------+-----------------------+
| МЕТОД    | СХОДИМОСТЬ     | ТРЕБУЕТСЯ      | НАДЁЖНОСТЬ            |
+----------+----------------+----------------+-----------------------+
| Бисекция | Линейная       | [a,b] с разн.  | 100% если есть корень |
|          | (медленно)     | знаками        |                       |
+----------+----------------+----------------+-----------------------+
| Ньютон   | Квадратичная   | f'(x), хор. x₀ | Может расходиться     |
|          | (очень быстро) |                |                       |
+----------+----------------+----------------+-----------------------+
| Секущих  | Сверхлинейная  | Две начальные  | Может расходиться     |
|          | (~1.618)       | точки          |                       |
+----------+----------------+----------------+-----------------------+

 Инженерные трейд-оффы: точность vs стоимость


 Компьютер не знает, какой метод "лучше". Инженер должен выбирать.

 Вопрос: Почему не всегда использовать самый точный метод (Ньютон)?

   Ответ: Каждый вызов f'(x) — это вычисления.
   Если f(x) — сложная функция (моделирование, БД-запрос), это дорого.

 Пример: Поиск оптимальной температуры реактора

   f(T) = выход продукта при температуре T
   Один вызов f(T) = запуск симуляции на 10 минут

   Бисекция: 20 итераций × 1 вызов = 20 вызовов = 200 минут
   Ньютон:   5 итераций × 2 вызова (f и f') = 10 вызовов = 100 минут

   Но: если f' нужно считать численно (ещё 2 вызова f), то:
   Ньютон: 5 × 3 = 15 вызовов = 150 минут ← уже не так выгодно.

 Правило: Выбирай метод, исходя из стоимости вызова функции.

   • f дешёвая (формула) → Ньютон
   • f дорогая (симуляция) → бисекция или методы без производных
   • f с шумом (эксперимент) → методы, устойчивые к шуму


Практическая рекомендация:
  Бисекция для надёжности → Ньютон для точности (комбинированный метод)


===============================================================================
Численное интегрирование
===============================================================================

 Метод трапеций


 Задача: Вычислить ∫ₐᵇ f(x) dx

 Идея: Заменяем кривую ломаной (трапециями).

   y|    ╱╲
    |   ╱  ╲
    |  ╱    ╲
    | ╱------╲-------- ← ломаная (трапеции)
    |╱        ╲
    +----------------→ x
     a  x₁ x₂  ...  b

 Формула (n равных отрезков, h = (b−a)/n):

   ∫ₐᵇ f(x) dx ≈ h · [f(a)/2 + f(x₁) + f(x₂) + ... + f(xₙ₋₁) + f(b)/2]

 Пример: ∫₀¹ x² dx, n = 4 (точный ответ = 1/3 ≈ 0.333)

   h = 1/4 = 0.25
   Точки: x₀ = 0, x₁ = 0.25, x₂ = 0.5, x₃ = 0.75, x₄ = 1
   Значения: f = 0, 0.0625, 0.25, 0.5625, 1

   I ≈ 0.25 × [0/2 + 0.0625 + 0.25 + 0.5625 + 1/2]
     = 0.25 × [0 + 0.0625 + 0.25 + 0.5625 + 0.5]
     = 0.25 × 1.375 = 0.34375

   Погрешность: 0.34375 − 0.333... = 0.01  (около 3%)

 Погрешность: O(h²) — уменьшение h вдвое уменьшает ошибку вчетверо


 Метод Симпсона (парабол)


 Идея: Заменяем кривую параболами (точнее, чем трапеции).
       Требуется чётное число отрезков n.

 Формула:

   ∫ₐᵇ f dx ≈ (h/3) · [f(a) + 4f(x₁) + 2f(x₂) + 4f(x₃) + ... + f(b)]

   Коэффициенты: 1, 4, 2, 4, 2, 4, ..., 2, 4, 1

 Пример: ∫₀¹ x² dx, n = 4

   I ≈ (0.25/3) × [0 + 4×0.0625 + 2×0.25 + 4×0.5625 + 1]
     = (0.25/3) × [0 + 0.25 + 0.5 + 2.25 + 1]
     = (0.25/3) × 4 = 0.3333...

   Точный ответ. (Симпсон точен для полиномов до степени 3)

 Погрешность: O(h⁴) — намного точнее трапеций.

 ✓ Когда использовать: Почти всегда лучше трапеций
 ✗ Когда не использовать: Разрывные функции, сильные осцилляции

 Код:
   h = (b - a) / n
   I = f(a) + f(b)
   for i in range(1, n):
       x = a + i * h
       if i % 2 == 1:
           I += 4 * f(x)
       else:
           I += 2 * f(x)
   return I * h / 3


 Квадратуры Гаусса — максимальная точность


 Идея: Выбираем точки xᵢ и веса wᵢ оптимально (не равномерно)

   ∫₋₁¹ f(x) dx ≈ Σᵢ wᵢ f(xᵢ)

 Таблица узлов и весов (на [−1, 1]):

 +---+---------------------+----------------------------+
 | n | УЗЛЫ xᵢ             | ВЕСА wᵢ                    |
 +---+---------------------+----------------------------+
 | 1 | 0                   | 2                          |
 | 2 | ±1/√3 ≈ ±0.577      | 1, 1                       |
 | 3 | 0, ±√(3/5) ≈ ±0.775 | 8/9, 5/9, 5/9              |
 | 4 | ±0.340, ±0.861      | 0.653, 0.653, 0.348, 0.348 |
 +---+---------------------+----------------------------+

 Точность: n точек Гаусса интегрируют точно полиномы до степени 2n−1!
           (Симпсон с 3 точками — только до степени 3)

 Для произвольного [a, b]:
   Замена: x = (b−a)t/2 + (a+b)/2,  t ∈ [−1, 1]
   dx = (b−a)/2 dt


===============================================================================
Решение систем линейных уравнений Ax = b
===============================================================================

 Метод Гаусса (прямой метод)


 Идея: Приводим матрицу к треугольному виду, решаем обратным ходом.

 Алгоритм:

 1. прямой ход: Обнуляем элементы под диагональю

    + a₁₁  a₁₂  a₁₃ | b₁ +      + a₁₁  a₁₂  a₁₃ | b₁  +
    | a₂₁  a₂₂  a₂₃ | b₂ |  →   |  0   a'₂₂ a'₂₃| b'₂ |
    + a₃₁  a₃₂  a₃₃ | b₃ +      +  0    0   a"₃₃| b"₃ +

 2. обратный ход: Находим xₙ, потом xₙ₋₁, ..., x₁

    x₃ = b"₃ / a"₃₃
    x₂ = (b'₂ − a'₂₃ x₃) / a'₂₂
    x₁ = (b₁ − a₁₂ x₂ − a₁₃ x₃) / a₁₁

 Пример:
    2x + y − z = 8
   −3x − y + 2z = −11
   −2x + y + 2z = −3

   Расширенная матрица:
   +  2   1  −1 |  8  +
   | −3  −1   2 |−11  |
   + −2   1   2 | −3  +

   Шаг 1: R₂ → R₂ + (3/2)R₁,  R₃ → R₃ + R₁
   +  2    1    −1  |   8   +
   |  0   0.5   0.5 |   1   |
   +  0    2     1  |   5   +

   Шаг 2: R₃ → R₃ − 4R₂
   +  2    1    −1  |   8   +
   |  0   0.5   0.5 |   1   |
   +  0    0    −1  |   1   +

   Обратный ход:
   z = 1/(−1) = −1
   y = (1 − 0.5×(−1)) / 0.5 = 1.5/0.5 = 3
   x = (8 − 1×3 − (−1)×(−1)) / 2 = 4/2 = 2

   Ответ: x = 2, y = 3, z = −1

 Сложность: O(n³) операций

 Важно: Выбор главного элемента (pivoting) для численной устойчивости.


 LU-разложение


 Идея: Разложить A = LU, где L — нижнетреугольная, U — верхнетреугольная.

 Зачем: Если нужно решать много систем с одной A, но разными b.
        Ax = b → LUx = b → Ly = b (легко), Ux = y (легко).

 Разложение делается один раз (O(n³)), потом каждое решение — O(n²).


 Метод простой итерации (для больших разреженных систем)


 Идея: Преобразуем Ax = b в x = Bx + c и итерируем: xₙ₊₁ = Bxₙ + c

 Сходимость: Если ‖B‖ < 1 (спектральный радиус < 1)

 Методы Якоби и Гаусса-Зейделя — конкретные способы построить B и c.

 ✓ Когда использовать: Очень большие разреженные матрицы (тысячи × тысячи)
 ✗ Когда не использовать: Плотные матрицы — Гаусс быстрее


===============================================================================
Численное решение ОДУ
===============================================================================

 Задача Коши: y' = f(t, y), y(t₀) = y₀


 Найти функцию y(t), зная начальное условие и дифференциальное уравнение.


 Метод Эйлера (простейший)


 Идея: Заменяем производную разностью: y' ≈ (yₙ₊₁ − yₙ)/h

 Формула:
   yₙ₊₁ = yₙ + h · f(tₙ, yₙ)

 Геометрически: Идём по касательной на шаг h

       y
       |      ●--→ куда идём (Эйлер)
       |     ╱ ╲
       |    ╱   ╲ куда на самом деле
       |   ●
       |  yₙ
       +-------------→ t
          tₙ   tₙ₊₁

 Пример: y' = y, y(0) = 1 (решение: y = eᵗ)

   h = 0.1,  f(t, y) = y

   y₀ = 1
   y₁ = 1 + 0.1×1 = 1.1
   y₂ = 1.1 + 0.1×1.1 = 1.21
   y₃ = 1.21 + 0.1×1.21 = 1.331
   ...
   y₁₀ = y(1) ≈ 2.594  (точно: e¹ ≈ 2.718)

   Погрешность ≈ 5% за 10 шагов. Не очень точно.

 Погрешность: O(h) на шаг, O(h) глобально — метод первого порядка

 ✓ Когда использовать: Быстрый прототип, обучение
 ✗ Когда не использовать: Когда нужна точность


 Метод Рунге-Кутты 4-го порядка (rk4) — рабочая лошадка


 Идея: Оцениваем наклон в нескольких точках и усредняем.

 Формулы:

   k₁ = f(tₙ, yₙ)
   k₂ = f(tₙ + h/2, yₙ + h·k₁/2)
   k₃ = f(tₙ + h/2, yₙ + h·k₂/2)
   k₄ = f(tₙ + h, yₙ + h·k₃)

   yₙ₊₁ = yₙ + (h/6)(k₁ + 2k₂ + 2k₃ + k₄)

 Интуиция:
   k₁ — наклон в начале
   k₂ — наклон в середине (по оценке k₁)
   k₃ — наклон в середине (по оценке k₂, точнее)
   k₄ — наклон в конце
   Итог — взвешенное среднее: (1×k₁ + 2×k₂ + 2×k₃ + 1×k₄)/6

 Пример: y' = y, y(0) = 1, h = 0.1

   k₁ = 1
   k₂ = 1 + 0.1×1/2 = 1.05
   k₃ = 1 + 0.1×1.05/2 = 1.0525
   k₄ = 1 + 0.1×1.0525 = 1.10525

   y₁ = 1 + (0.1/6)(1 + 2×1.05 + 2×1.0525 + 1.10525)
      = 1 + (0.1/6)×6.31025 = 1.10517.

   Точно: e^0.1 = 1.10517.  ← Совпадает до 5 знаков за 1 шаг.

 Погрешность: O(h⁴) на шаг, O(h⁴) глобально — метод 4-го порядка

 ✓ Когда использовать: Универсальный метод, подходит для большинства задач
 ✗ Когда не использовать:
   • Жёсткие уравнения (нужны неявные методы)
   • Очень высокая точность (нужен адаптивный шаг)

 Код:
   def rk4_step(f, t, y, h):
       k1 = f(t, y)
       k2 = f(t + h/2, y + h*k1/2)
       k3 = f(t + h/2, y + h*k2/2)
       k4 = f(t + h, y + h*k3)
       return y + h/6 * (k1 + 2*k2 + 2*k3 + k4)


 Сравнение методов ОДУ
+-----------------+---------+--------------+-----------------------+
| МЕТОД           | ПОРЯДОК | ВЫЧИСЛЕНИЙ f | Когда ИСПОЛЬЗОВАТЬ    |
|                 |         | НА ШАГ       |                       |
+-----------------+---------+--------------+-----------------------+
| Эйлер           | 1       | 1            | Обучение, прототип    |
+-----------------+---------+--------------+-----------------------+
| RK2 (Хойна)     | 2       | 2            | Быстрые грубые оценки |
+-----------------+---------+--------------+-----------------------+
| RK4             | 4       | 4            | Универсальный         |
+-----------------+---------+--------------+-----------------------+
| Адаптивный RK   | 4-5     | 6            | Высокая точность,     |
| (Дорманд-Принс) |         |              | переменный шаг        |
+-----------------+---------+--------------+-----------------------+
| Неявный Эйлер   | 1       | итерации     | Жёсткие уравнения     |
+-----------------+---------+--------------+-----------------------+


===============================================================================
Интерполяция
===============================================================================

 Задача: Построить функцию, проходящую через заданные точки (xᵢ, yᵢ)


 Полиномиальная интерполяция:
   n+1 точка → полином степени n (единственный)


 Интерполяция Лагранжа


 Формула:

   P(x) = Σᵢ yᵢ · Lᵢ(x)

   где Lᵢ(x) = ∏ⱼ≠ᵢ (x − xⱼ)/(xᵢ − xⱼ)

 Свойство Lᵢ: равен 1 в точке xᵢ, равен 0 в остальных узлах.

 Пример: Точки (0, 1), (1, 3), (2, 2)

   L₀(x) = (x−1)(x−2)/((0−1)(0−2)) = (x−1)(x−2)/2
   L₁(x) = (x−0)(x−2)/((1−0)(1−2)) = x(x−2)/(−1) = −x(x−2)
   L₂(x) = (x−0)(x−1)/((2−0)(2−1)) = x(x−1)/2

   P(x) = 1·(x−1)(x−2)/2 + 3·(−x(x−2)) + 2·x(x−1)/2
        = (x²−3x+2)/2 − 3x² + 6x + x² − x
        = −1.5x² + 3.5x + 1

   Проверка: P(0) = 1 ✓, P(1) = −1.5 + 3.5 + 1 = 3 ✓, P(2) = −6 + 7 + 1 = 2 ✓

 Проблема: При большом числе точек полином сильно осциллирует.
              (Феномен Рунге)


 Сплайн-интерполяция (кубический сплайн)


 Идея: Между каждой парой точек — свой кубический полином,
       но они "гладко сшиты" (совпадают значения, первые и вторые производ.)

       y
       |    ●
       |   ╱ ╲         ● ← узлы
       |  ╱   ●-------╱
       | ●
       +----------------→ x
         гладкая кривая, не осциллирует

 Преимущества:
   • Нет осцилляций Рунге
   • Гладкая кривая (C² — непрерывны до 2-й производной)
   • Локальность: изменение одной точки влияет только на соседние сегменты

 ✓ Когда использовать: Практически всегда лучше полиномиальной


===============================================================================
Оптимизация (минимизация функций)
===============================================================================

 Градиентный спуск


 Задача: Найти минимум f(x), x ∈ ℝⁿ

 Идея: Двигаемся в направлении наибыстрейшего убывания = против градиента

 Алгоритм:
   xₙ₊₁ = xₙ − α · ∇f(xₙ)

   где α — шаг (learning rate)

       ╭--------------------╮
      ╱    ↘                 ╲
     |       ↘                |      Спуск по "склону"
     |         ↘    ●        |      к минимуму
      ╲          ↘          ╱
       ╰--------------------╯

 Пример: f(x, y) = x² + y², начало (3, 4), α = 0.1

   ∇f = (2x, 2y)

   Шаг 1: (3, 4) − 0.1×(6, 8) = (3−0.6, 4−0.8) = (2.4, 3.2)
   Шаг 2: (2.4, 3.2) − 0.1×(4.8, 6.4) = (1.92, 2.56)
   ...
   Сходится к (0, 0)

 Выбор α:
   • Слишком большой — расходится, "прыгает" через минимум
   • Слишком маленький — сходится очень медленно
   • Адаптивные методы (Adam, RMSprop) — автоматически подбирают α

 ✓ Когда использовать: Гладкие функции, машинное обучение
 ✗ Когда не использовать: Много локальных минимумов, разрывные функции


 Метод Ньютона для оптимизации


 Идея: Аппроксимируем f квадратичной функцией, находим её минимум.

 Формула:
   xₙ₊₁ = xₙ − H⁻¹(xₙ) · ∇f(xₙ)

   где H — матрица Гессе (вторых производных)

 Сходимость: Квадратичная (очень быстро)

 ✓ Когда использовать: Функция гладкая, размерность невелика
 ✗ Когда не использовать:
   • Большая размерность (H⁻¹ дорого считать)
   • H вырождена или отрицательно определена (седловые точки)

 Квази-ньютоновские методы (BFGS, L-BFGS):
   Аппроксимируют H⁻¹ без явного вычисления — компромисс между
   скоростью сходимости и стоимостью итерации.


===============================================================================
Быстрое преобразование Фурье (БПФ / FFT)
===============================================================================

 Задача и идея


 Задача: Вычислить дискретное преобразование Фурье (ДПФ):

   Xₖ = Σⁿ⁻¹ⱼ₌₀ xⱼ · e^{−2πijk/n}

 Прямой расчёт: O(n²) операций
 БПФ (Кули-Тьюки): O(n log n) операций.

 Ускорение: Для n = 1024:  прямой = 1 млн операций
                            Бпф = 10 тыс. операций (в 100 раз быстрее)

 Идея: Разделяй и властвуй. Разбиваем на чётные и нечётные индексы,
       рекурсивно считаем, комбинируем за O(n).

 Применения:
   • Обработка сигналов и звука
   • Сжатие изображений (JPEG)
   • Спектральный анализ
   • Быстрое умножение полиномов и больших чисел
   • Решение УрЧП спектральными методами

 Код (рекурсивный, для понимания):
   def fft(x):
       n = len(x)
       if n == 1: return x
       even = fft(x[0::2])   # чётные индексы
       odd = fft(x[1::2])    # нечётные индексы
       W = [exp(-2j*pi*k/n) for k in range(n//2)]
       return [even[k] + W[k]*odd[k] for k in range(n//2)] + \
              [even[k] - W[k]*odd[k] for k in range(n//2)]


===============================================================================
Краткий справочник: какой метод выбрать
===============================================================================

 Решение уравнений f(x) = 0
+-------------------------------+-------------------------------------+
| СИТУАЦИЯ                      | РЕКОМЕНДАЦИЯ                        |
+-------------------------------+-------------------------------------+
| Есть интервал со сменой знака | Бисекция (надёжно) + Ньютон (точно) |
| Есть хорошее начальное прибл. | Ньютон                              |
| Нет производной               | Секущих или Брента                  |
| Система нелинейных уравнений  | Многомерный Ньютон                  |
+-------------------------------+-------------------------------------+

 Численное интегрирование
+-----------------------+---------------------------------------+
| СИТУАЦИЯ              | РЕКОМЕНДАЦИЯ                          |
+-----------------------+---------------------------------------+
| Гладкая функция       | Симпсон или Гаусс                     |
| Нужна адаптивность    | Адаптивный Симпсон (сгущаем где надо) |
| Многомерный интеграл  | Монте-Карло                           |
| Осциллирующая функция | Специальные методы (Филон)            |
+-----------------------+---------------------------------------+

 Линейные системы Ax = b
+------------------------------+------------------------------------+
| СИТУАЦИЯ                     | РЕКОМЕНДАЦИЯ                       |
+------------------------------+------------------------------------+
| Небольшая плотная матрица    | LU-разложение                      |
| Много систем с одной A       | LU один раз, потом быстрые решения |
| Симметричная положит. опред. | Холецкого (A = LLᵀ)                |
| Большая разреженная          | Итерационные (CG, GMRES)           |
| Очень большая (>10⁶)      | Многосеточные методы               |
+------------------------------+------------------------------------+

 Обыкновенные дифф. уравнения
+--------------------------------+--------------------------------+
| СИТУАЦИЯ                       | РЕКОМЕНДАЦИЯ                   |
+--------------------------------+--------------------------------+
| Обычная задача, нужна точность | RK4 или адаптивный RK (dopri5) |
| Жёсткое уравнение              | Неявные методы (BDF, Radau)    |
| Сохранение энергии (Гамильтон) | Симплектические методы (Верле) |
| Длительное интегрирование      | Многошаговые (Adams-Bashforth) |
+--------------------------------+--------------------------------+

 Оптимизация
+----------------------------+--------------------------------------------+
| СИТУАЦИЯ                   | РЕКОМЕНДАЦИЯ                               |
+----------------------------+--------------------------------------------+
| Гладкая, малая размерность | BFGS                                       |
| Большая размерность (ML)   | Adam, SGD                                  |
| Ограничения (неравенства)  | Внутренних точек, SQP                      |
| Глобальный оптимум         | Генетические алгоритмы, отжиг              |
| Выпуклая функция           | Любой градиентный — сойдётся к глобальному |
+----------------------------+--------------------------------------------+

===============================================================================



▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                      ЧАСТЬ VI: СПРАВОЧНИК
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Словарь: программирование ↔ математика
===============================================================================

Базовые концепции программирования на языке теории множеств.

 Базовые понятия


 Переменная
 ----------
 Программирование:  x = 5

 Математика:
   Переменная = имя (идентификатор) для элемента некоторого множества
   Формально: функция из пространства имён в множество значений
   Var: Names → Values,  Var("x") = 5 ∈ ℤ

 Ключевое отличие:
   В математике: x = 5 → утверждение (x всегда равен 5)
   В программировании: x = 5 → присваивание (в ящик "x" положили 5)

-------------------------------------------------------------------------------

 Присваивание
 ------------
 Программирование:  x = 5;  x = x + 1  # теперь x = 6

 Математика:
   Присваивание = обновление отображения (последовательность состояний)
   Var₀("x") = 5
   Var₁("x") = Var₀("x") + 1 = 6

 НЕ математическое равенство.
   x = x + 1  (в программировании) ≠ x = x + 1 (в математике — противоречие)

-------------------------------------------------------------------------------

 Тип
 ---
 Программирование:  x: int = 5;  y: float = 3.14;  s: str = "текст"

 Математика:
   Тип = множество возможных значений

   int ≈ ℤ (целые числа)
   float ≈ ℝ (вещественные, с ограничениями точности)
   str = множество всех конечных последовательностей символов
   bool = {True, False} ≈ {⊤, ⊥}

   Типизация = ограничение области значений: x: int означает x ∈ ℤ


 Логические операции


 Условие (if)
 ------------
 Программирование:
   if условие:
       действие_1
   else:
       действие_2

 Математика (кусочная функция):
   f(x) = { g₁(x),  если P(x)
          { g₂(x),  если ¬P(x)

   где P(x) — предикат (логическое условие)

-------------------------------------------------------------------------------

 Логические операторы
 ---------------------

   Программирование  |  Математика (логика)  |  Геометрия (множества)
   ------------------+-----------------------+------------------------
   and               |  ∧ (конъюнкция)       |  ∩ (пересечение)
   or                |  ∨ (дизъюнкция)       |  ∪ (объединение)
   not               |  ¬ (отрицание)        |  ᶜ (дополнение)


 Управление потоком


 Цикл for
 --------
 Программирование:  for x in S: f(x)

 Математика:
   Применение функции f к каждому элементу множества S
   ∀x ∈ S: f(x)
   Если собираем результаты: ⋃_{x ∈ S} {f(x)}

-------------------------------------------------------------------------------

 Цикл while
 ----------
 Программирование:  while условие: действие

 Математика:
   Итерация до достижения условия остановки
   xₙ₊₁ = f(xₙ)  пока  P(xₙ) = ⊤
   Остановка когда P(xₙ) = ⊥

-------------------------------------------------------------------------------

 Функция
 -------
 Программирование:
   def f(x, y):
       return x + y

 Математика:
   f: X × Y → Z,  f(x, y) = x + y

 Ключевое:
   • Функция в программировании может иметь побочные эффекты
   • Математическая функция — чистое отображение

 Чистая функция (pure):  def pure(x): return x * 2
 Нечистая (impure):      def impure(x): global counter; counter += 1

-------------------------------------------------------------------------------

 Рекурсия
 --------
 Программирование:
   def factorial(n):
       if n == 0: return 1
       else: return n * factorial(n-1)

 Математика (рекуррентное определение):
   f: ℕ → ℕ
   f(0) = 1              (база)
   f(n) = n · f(n−1)     (рекуррентный шаг)


 Структуры данных


 Список (list)
 -------------
 Программирование:  L = [1, 2, 3]

 Математика:
   Конечная последовательность = функция из {0, 1, ..., n−1} в множество
   L: {0, 1, 2} → ℤ,  L(0)=1, L(1)=2, L(2)=3
   Упорядоченный кортеж: (1, 2, 3) ∈ ℤ³

-------------------------------------------------------------------------------

 Множество (set)
 ---------------
 Программирование:  S = {1, 2, 3}

 Математика:
   Множество = коллекция без порядка и повторов
   S = {1, 2, 3} ⊂ ℤ

   Операции: S ∪ T (union), S ∩ T (intersection), S \ T (difference)

-------------------------------------------------------------------------------

 Словарь (dict)
 --------------
 Программирование:  d = {'a': 1, 'b': 2}

 Математика:
   Словарь = частичная функция из Keys в Values
   d: K ⇀ V,  d('a') = 1, d('b') = 2

   Как множество пар: d ⊂ K × V

-------------------------------------------------------------------------------

 Класс и объект
 --------------
 Программирование:
   class Point:
       def __init__(self, x, y):
           self.x = x
           self.y = y
   p = Point(3, 4)

 Математика:
   Класс = алгебраическая структура (множество + операции + аксиомы)
   Point = (ℝ × ℝ, {distance, move, ...})
   Объект = элемент этого множества: p = (3, 4) ∈ ℝ²

   Наследование = вложение структур (подструктура наследует операции)


 Функциональное программирование


 Лямбда-функция
 ---------------
 Программирование:  f = lambda x: x**2
 Математика:        f = λx. x²  (λ-исчисление)

-------------------------------------------------------------------------------

 Map
 ---
 Программирование:  map(f, [1,2,3]) → [f(1), f(2), f(3)]
 Математика:        (f(x₁), f(x₂), f(x₃)) — поточечное применение функции

-------------------------------------------------------------------------------

 Filter
 ------
 Программирование:  filter(P, L) — элементы, для которых P(x) = True
 Математика:        {x ∈ L : P(x)} — селекция подмножества по предикату

-------------------------------------------------------------------------------

 Reduce (fold)
 -------------
 Программирование:  reduce(⊕, [a,b,c], init) → ((init ⊕ a) ⊕ b) ⊕ c
 Математика:        Свёртка: композиция бинарной операции по списку
                    reduce(+, [1,2,3], 0) = 0+1+2+3 = 6

-------------------------------------------------------------------------------

 List comprehension
 ------------------
 Программирование:  [f(x) for x in S if P(x)]
 Математика:        {f(x) : x ∈ S, P(x)} — определение множества

-------------------------------------------------------------------------------

 Композиция функций
 ------------------
 Программирование:  compose(f, g)(x) = f(g(x))
 Математика:        (f ∘ g)(x) = f(g(x))

-------------------------------------------------------------------------------

 Декоратор
 ---------
 Программирование:
   @decorator
   def f(x): ...

 Математика:
   Функция высшего порядка: decorator: (X → Y) → (X → Y)
   f̃ = decorator(f)

   Геометрически — обёртка:
        +-----------+
        | decorator |
        | +-------+ |
    x --|→ |   f   | -|→ y
        |  +-------+  |
        +-------------+


 Специальные концепции


 Глобальное состояние
 --------------------
 Программирование:
   counter = 0
   def increment(): global counter; counter += 1

 Математика:
   Функция с побочным эффектом: f: X × Env → Y × Env
   Вход + состояние → выход + новое состояние

   Монада State: State s a = s → (a, s)

-------------------------------------------------------------------------------

 Итератор
 --------
 Программирование:
   it = iter([1, 2, 3])
   next(it)  # 1
   next(it)  # 2

 Математика:
   Итератор = пара (состояние, функция перехода)
   Iterator = (S, next: S → S × V ∪ {Stop})
   Автомат: s₀ -next→ (v₁, s₁) -next→ (v₂, s₂) → ...

-------------------------------------------------------------------------------

 Ленивые вычисления
 ------------------
 Программирование:
   g = (x**2 for x in range(10**9))  # НЕ вычисляется сразу.
   next(g)  # вычисляется по требованию

 Математика:
   Thunk = () → Value — отложенное вычисление
   Вместо value храним функцию, которая его вычислит

 Бесконечные последовательности:
   def fibonacci():
       a, b = 0, 1
       while True:
           yield a
           a, b = b, a+b

   Математически: fib: ℕ → ℕ (функция на всех натуральных)
   Но хранится как вычислительный процесс

-------------------------------------------------------------------------------

 None / null
 ----------
 Программирование:  x = None
 Математика:        Maybe T = T ∪ {Nothing}
                    x: Maybe Int → x = Nothing или x = Just(5)


 Сводная таблица соответствий


 Программирование         | Математика               | Геометрия
 -------------------------+--------------------------+---------------------
 x = 5                    | Var("x") = 5 ∈ ℤ        | Точка в координате 5
 if P: A else: B          | {A, если P; B, если ¬P} | Ветвление траектории
 for x in S: f(x)         | ∀x∈S: f(x)              | Обход точек множества
 while P: f()             | xₙ₊₁=f(xₙ) пока P(xₙ)   | Движение до границы
 def f(x): return y       | f: X → Y                | Отображение
 [x₁, x₂, x₃]             | (x₁,x₂,x₃) — кортеж     | Дискретная кривая
 {x₁, x₂, x₃}             | {x₁,x₂,x₃} — множество  | Набор точек
 {'k': v}                 | k ↦ v — частич. функция | Дискретное отображение
 class C                  | (S, F) — алг. структура | Многообразие с операц.
 object                   | элемент S               | Точка в пространстве
 map(f, L)                | (f(x₁),...,f(xₙ))       | Поточечное преобразов.
 filter(P, L)             | {x∈L : P(x)}            | Селекция области
 reduce(⊕, L)             | x₁⊕x₂⊕.⊕xₙ           | Композиция операций
 lambda x: e              | λx.e                    | Анонимная функция
 [f(x) for x in S if P(x)]| {f(x) : x∈S, P(x)}      | Определение через усл.


 Парадигмы программирования


 SQL (декларативный):        Реляционная алгебра (операции над множествами)
 Python (императивный):      Пошаговые команды (алгоритм)
 Haskell (функциональный):   Композиция функций (λ-исчисление)
 Prolog (логический):        Правила вывода (логика предикатов)

-------------------------------------------------------------------------------

 Библиотеки Python ↔ математика:

 NumPy array:        Вектор/матрица (элементы ℝⁿ, ℝⁿˣᵐ)
 Pandas DataFrame:   Отношение (таблица из реляционной алгебры)
 sklearn.Model:      Статистическая модель (отображение X → Y с параметрами)
 NetworkX Graph:     Граф G = (V, E) (множество вершин + рёбер)


===============================================================================
Словарь: теория случайных процессов ↔ анализ временных рядов
===============================================================================

Мост между строгой теорией (теория меры, стохастический анализ) и практикой
(эконометрика, анализ данных, прогнозирование).

 Основные объекты


 Теория случайных процессов | анализ временных рядов
 -------------------------------+---------------------------------------
 Случайный процесс {X(t), t∈T}  | Временной ряд {x₁, x₂, ..., xₙ}
 Отображение T × Ω → ℝ          | Последовательность наблюдений
                                |
 Траектория (реализация)        | Наблюдаемый ряд
 X(·, ω) для фиксированного ω   | Конкретная последовательность чисел
                                |
 Вероятностное пр-во (Ω,ℱ,P)   | DGP (Data Generating Process)
                                | Генеральная совокупность
                                |
 Фильтрация {ℱₜ}               | Информационное множество
 σ-алгебры прошлого             | История процесса до момента t
                                |

 Свойства процессов


 Теория | практика
 -------------------------------+-------------------------------------------
 Стационарность в узком смысле  | (нет прямого аналога)
 F(xₜ₁,...,xₜₙ) = F(xₜ₁₊ₕ,...)  | Слишком сильное требование
                                |
 Стационарность в широком       | Стационарность (слабая)
 смысле (слабая)                | Постоянные mean и variance,
 E[X(t)] = μ = const            | ACF зависит только от лага
 Cov(X(t),X(s)) = R(|t−s|)     | μₜ = μ, σₜ² = σ², ρ(τ)
                                |
 Эргодичность                   | Временное среднее = матожиданию
 lim(T→∞) 1/T ∫X(t)dt = E[X]   | (1/n)Σxᵢ → μ при n → ∞
                                | Можно оценивать по одной реализации
                                |

 Характеристики процессов


 Теория | практика
 -------------------------------+-------------------------------------------
 Математическое ожидание        | Среднее уровня / тренд
 m(t) = E[X(t)]                | μ = (1/n)Σxᵢ
 Для стационарного: m = const   | μ̂ — выборочное среднее
                                |
 Автоковариационная функция     | ACVF (autocovariance function)
 γ(s,t) = Cov(X(s),X(t))       | γ(k) = Cov(xₜ, xₜ₊ₖ)
 Для стационарного:             | γ̂(k) = (1/n)Σ(xᵢ−x̄)(xᵢ₊ₖ−x̄)
 γ(τ) = Cov(X(t),X(t+τ))       |
                                |
 Автокорреляционная функция     | ACF (autocorrelation function)
 ρ(τ) = γ(τ)/γ(0)              | ρ(k) = γ(k)/γ(0)
 Нормированная ковариация       | ρ̂(k) — выборочная ACF
                                |
 Частичная автокорреляция       | PACF
 φₖₖ из уравнений Юла-Уолкера  | Для определения порядка AR-модели
                                |
 Спектральная плотность         | Power spectrum / периодограмма
 S(ω) = (1/2π)Σγ(k)e^(−ikω)   | I(ω) = |(1/√n)Σxₜe^(−iωt)|²
 Теорема Винера-Хинчина:        | Связь ACF и спектра через FFT
 S(ω) ↔ γ(τ) через Фурье       |
                                |

 Типы процессов и модели


 Теория | практика
 -------------------------------+-------------------------------------------
 Белый шум                      | White noise / Инновации
 {ξₜ} ~ WN(0, σ²)              | εₜ ~ iid(0, σ²)
 E[ξₜ] = 0, E[ξₜξₛ] = σ²δₜₛ   | Некоррелированы, E[εₜ] = 0
                                |
 Гауссовский процесс            | Нормально распределённый ряд
 Все конечномерные распределения| Часто предполагается для
 гауссовские                    | статистических выводов
                                |
 Марковский процесс             | AR(1) процесс
 P(Xₜ₊₁|Xₜ,Xₜ₋₁,...) = P(Xₜ₊₁|Xₜ)| xₜ = φxₜ₋₁ + εₜ
 Будущее зависит только от      | Авторегрессия первого порядка
 настоящего                     |
                                |
 Винеровский процесс            | Случайное блуждание
 (Броуновское движение)         | в непрерывном времени
 W(t) ~ N(0,t), непрерывный,   | Предел Δxₜ = εₜ при Δt → 0
 недифференцируемый             | I(1) процесс
                                |
 Процесс с независимыми         | Случайное блуждание
 приращениями                   | xₜ = xₜ₋₁ + εₜ
 X(t)−X(s) ⊥ X(s)−X(r)         | Дискретный аналог винеровского
                                |
 Процесс Орнштейна-Уленбека     | AR(1) в непрерывном времени
 dXₜ = −θ(Xₜ−μ)dt + σdWₜ       | Mean-reverting процесс
 Возврат к среднему             |
                                |
 Мартингал                      | Непредсказуемый процесс
 E[Xₜ₊₁|ℱₜ] = Xₜ               | E[εₜ₊₁|прошлое] = 0
 Лучшее предсказание = текущее  | Правильно подогнанная модель
 значение                       | даёт остатки-мартингалы
                                |
 Процесс с долгой памятью       | ARFIMA / Long memory процесс
 γ(k) ~ Ck^(−α), α ∈ (0,1)     | Медленно убывающая ACF
                                | Дробно интегрированный процесс
                                |

 Модели временных рядов


 Стохастическое ДУ | дискретная модель
 -------------------------------+-------------------------------------------
 Линейное СДУ                   | ARMA(p,q) модель
 dXₜ = a·Xₜdt + σdWₜ           | φ(L)xₜ = θ(L)εₜ
                                | φ(L) = 1 − φ₁L − φ₂L² − ⋯ − φₚLᵖ
                                | θ(L) = 1 + θ₁L + θ₂L² + ⋯ + θᵩLᵠ
                                |
 Процесс Орнштейна-Уленбека     | AR(1): xₜ = φxₜ₋₁ + εₜ
 dXₜ = −θ(Xₜ−μ)dt + σdWₜ       | где φ = e^(−θΔt)
                                |
 Винеровский процесс            | Случайное блуждание
 W(t) − W(s) ~ N(0, t−s)       | xₜ = xₜ₋₁ + εₜ
                                | Интегрированный процесс I(1)
                                |
 Геометрическое броуновское     | Логарифмическое случайное
 движение                       | блуждание
 dSₜ = μSₜdt + σSₜdWₜ          | ln(xₜ) = ln(xₜ₋₁) + μ + σεₜ
 S(t) = S(0)exp((μ−σ²/2)t+σW(t))| Модель цен активов
                                |

 Операторы и оценивание


 Теория | практика
 -------------------------------+-------------------------------------------
 Оператор сдвига                | Лаговый оператор
 Uₕf(t) = f(t+h)               | Lxₜ = xₜ₋₁, L²xₜ = xₜ₋₂
 Группа сдвигов                 | Lᵏxₜ = xₜ₋ₖ
                                |
 Стохастический интеграл        | Накопленная сумма шоков
 ∫₀ᵗ f(s)dW(s)                  | Σᵢ₌₁ᵗ εᵢ
 (Определение Ито)              |
                                |
 Условное математическое        | Прогноз по модели
 ожидание E[Xₜ₊ₕ|ℱₜ]            | x̂ₜ₊ₕ|ₜ = E[xₜ₊ₕ|x₁,...,xₜ]
                                |
 Оценка методом максимального   | MLE (Maximum Likelihood)
 правдоподобия                  | θ̂ = argmax L(θ|data)
                                |
 Асимптотическая нормальность   | √n(θ̂−θ) →^d N(0,V)
                                | Доверительные интервалы
                                |

 Ключевые формулы


 AR(1): Xₜ = φXₜ₋₁ + εₜ
   • Стационарность: |φ| < 1
   • Дисперсия: Var[Xₜ] = σ²/(1−φ²)
   • ACF: ρ(k) = φᵏ
   • Спектральная плотность: S(ω) = σ²/|1−φe^(−iω)|²

 AR(p): Xₜ = φ₁Xₜ₋₁ + ... + φₚXₜ₋ₚ + εₜ
   • Стационарность: корни φ(z) = 0 вне единичного круга
   • Уравнения Юла-Уолкера: γ(k) = φ₁γ(k−1) + ... + φₚγ(k−p)
   • PACF: φₖₖ ≠ 0 для k≤p, φₖₖ = 0 для k>p

 MA(q): Xₜ = εₜ + θ₁εₜ₋₁ + ... + θᵩεₜ₋ᵩ
   • Обратимость: корни θ(z) = 0 вне единичного круга
   • ACF: ρ(k) = 0 для k > q (обрезается)

 ARIMA(p,d,q): φ(L)∇ᵈXₜ = θ(L)εₜ
   • d раз продифференцировать для стационарности
   • ∇xₜ = xₜ − xₜ₋₁ (оператор разности)

 Фильтр Калмана:
   State:   xₜ = Axₜ₋₁ + wₜ,  wₜ ~ N(0,Q)
   Observ:  yₜ = Cxₜ + vₜ,    vₜ ~ N(0,R)
   Predict: x̂ₜ|ₜ₋₁ = Ax̂ₜ₋₁|ₜ₋₁
   Update:  Kₜ = Pₜ|ₜ₋₁Cᵀ(CPₜ|ₜ₋₁Cᵀ + R)⁻¹  (Kalman gain)
            x̂ₜ|ₜ = x̂ₜ|ₜ₋₁ + Kₜ(yₜ − Cx̂ₜ|ₜ₋₁)


 Ключевые различия в подходах


 Теория случайных процессов:
   • Вопросы: существование, единственность, структура
   • Язык: теория меры, функциональный анализ, топология
   • Цель: доказать общие теоремы
   • Аудитория: математики
   • Акцент: строгость, общность, абстракция

 Анализ временных рядов:
   • Вопросы: идентификация, оценивание, прогнозирование
   • Язык: статистика, регрессионный анализ
   • Цель: получить численный прогноз
   • Аудитория: статистики, эконометристы, инженеры
   • Акцент: практичность, применимость, вычисления

-------------------------------------------------------------------------------

 Связь:
   Анализ временных рядов = дискретизация + оценивание + диагностика
                            теории случайных процессов

   Теория процессов объясняет Почему методы временных рядов работают.
   Временные ряды показывают как применять эти методы на практике.


-------------------------------------------------------------------------------
Словарь: непрерывное → дискретное (Как математика попадает в компьютер)
-------------------------------------------------------------------------------

 Зачем этот раздел


 Математика оперирует непрерывными объектами: ℝ, интегралы, производные.
 Компьютер работает с дискретными объектами: массивы, суммы, разности.

 Инженер должен понимать, как одно превращается в другое — и что теряется.


 Главная таблица: аналоговое → цифровое
+--------------------+-----------------------------+-------------------------+
| НЕПРЕРЫВНОЕ        | ДИСКРЕТНОЕ                  | ЧТО ТЕРЯЕТСЯ            |
+--------------------+-----------------------------+-------------------------+
| Функция f(x)       | Массив f[i]                 | Значения между узлами   |
| x ∈ [a,b]          | i = 0,1,...,N               | (нужна интерполяция)    |
+--------------------+-----------------------------+-------------------------+
| Производная df/dx  | Разность (f[i+1]−f[i])/h    | Точность O(h)           |
|                    | или (f[i+1]−f[i-1])/2h      | Точность O(h²)          |
+--------------------+-----------------------------+-------------------------+
| Вторая производная | (f[i+1]−2f[i]+f[i-1])/h²    | Точность O(h²)          |
| d²f/dx²            |                             |                         |
+--------------------+-----------------------------+-------------------------+
| Интеграл ∫f(x)dx   | Сумма Σf[i]·h               | Прямоугольники: O(h)    |
|                    | Трапеции: Σ(f[i]+f[i+1])h/2 | Трапеции: O(h²)         |
|                    | Симпсон                     | Симпсон: O(h⁴)          |
+--------------------+-----------------------------+-------------------------+
| ℝ (вещественные)   | float64                     | Точность ~15 знаков     |
|                    |                             | Переполнение, underflow |
+--------------------+-----------------------------+-------------------------+
| Оператор L: V→V    | Матрица A: ℝⁿ→ℝⁿ            | Конечная размерность    |
| (бесконечномерный) |                             |                         |
+--------------------+-----------------------------+-------------------------+

 Теорема Котельникова-Шеннона (Найквиста) — Когда ничего не теряется


 Фундаментальный результат: непрерывный сигнал можно точно восстановить
 из дискретных отсчётов — но только при определённых условиях.

 Теорема:
   Если сигнал f(t) не содержит частот выше F_max (ограничен по спектру),
   то он полностью определяется отсчётами с частотой ≥ 2·F_max.

   f(t) = Σ f(n·T) · sinc((t − n·T)/T),   где T ≤ 1/(2·F_max)

   sinc(x) = sin(πx)/(πx) — функция отсчётов (кардинальный синус)

 Следствия:
   • Частота Найквиста: F_Nyquist = 2·F_max — минимальная частота выборки
   • Алиасинг: если выборка реже F_Nyquist, высокие частоты "притворяются"
     низкими (эффект стробоскопа — колесо крутится "назад" в кино)
   • Перед дискретизацией нужен антиалиасинговый фильтр

 Практика:
   • CD Audio: F_max = 20 кГц → выборка 44.1 кГц > 40 кГц ✓
   • При расчёте конструкций: шаг сетки h < λ_min/2 (длина волны)

 Это мост между непрерывным и дискретным — теоретическое обоснование того,
 что цифровая обработка сигналов вообще возможна без потери информации.


 Производная → матрица


 Оператор d/dx на функциях f(x) — бесконечномерный.
 Но если f(x) задана в N точках: f[0], f[1], ..., f[N-1], то:

 Первая производная (центральная разность):

   (df/dx)[i] ≈ (f[i+1] − f[i-1]) / (2h)

   Матрица D₁:
   +                             +
   |  0   1   0   0   0   ⋯  0 |
   | -1   0   1   0   0   ⋯  0 |   1
   |  0  -1   0   1   0   ⋯  0 |  ─── ·
   |  0   0  -1   0   1   ⋯  0 |  2h
   |  ⋮   ⋮   ⋮   ⋮   ⋱   ⋮  |
   |  0   0   0   ⋯  -1   0  1 |
   |  0   0   0   ⋯   0  -1  0 |
   +                             +

 Вторая производная (уравнение теплопроводности):

   (d²f/dx²)[i] ≈ (f[i+1] − 2f[i] + f[i-1]) / h²

   Матрица D₂:
   +                             +
   | -2   1   0   0   0   ⋯  0 |
   |  1  -2   1   0   0   ⋯  0 |   1
   |  0   1  -2   1   0   ⋯  0 |  ─── ·
   |  0   0   1  -2   1   ⋯  0 |  h²
   |  ⋮   ⋮   ⋮   ⋮   ⋱   ⋮  |
   |  0   0   0   ⋯   1  -2  1 |
   |  0   0   0   ⋯   0   1 -2 |
   +                             +

 Это та же матрица, что в примере (тепловой баланс комнат)!
 Теплопроводность → матрица → собственные значения → решение.


 Лапласиан графа = дискретный оператор Лапласа


 На непрерывном пространстве: Δf = d²f/dx² + d²f/dy² + d²f/dz²

 На графе (например, тепловой сети):

   (Lf)[i] = Σⱼ wᵢⱼ (f[i] − f[j])

   где wᵢⱼ — вес ребра между узлами i и j (теплопроводность трубы)

 Матрица лапласиана:

   L = D − W

   D = diag(d₁, d₂, ..., dₙ) — степени вершин (dᵢ = Σⱼwᵢⱼ)
   W = матрица весов (wᵢⱼ)

 Собственные значения лапласиана:

   • λ₁ = 0 всегда (для связного графа — единственный нуль)
   • λ₂ > 0 ⟺ граф связен
   • Чем больше λ₂, тем "лучше связан" граф

 Применение: Спектральная кластеризация, анализ сетей, PageRank


 Метод конечных элементов (fem) — вкратце


 Задача: Решить уравнение теплопроводности на сложной области Ω

   −∇·(k∇T) = q    (в области Ω)
   T = T₀          (на границе ∂Ω)

 Шаг 1: Разбить область на элементы (треугольники, тетраэдры)

         ●-------●-------●
        /╲      /╲      /╲
       /  ╲    /  ╲    /  ╲
      /    ╲  /    ╲  /    ╲
     ●------●------●------●
      ╲    /╲    /╲    /
       ╲  /  ╲  /  ╲  /
        ╲/    ╲/    ╲/
         ●-------●-------●

 Шаг 2: Внутри каждого элемента T(x,y) ≈ линейная функция

 Шаг 3: Записать вариационную форму:

   Минимизировать: ∫_Ω [½k|∇T|² − qT] dA

 Шаг 4: Получить систему линейных уравнений:

   K·T = F

   K — матрица жёсткости (зависит от геометрии и k)
   F — вектор нагрузки (зависит от q и гран. условий)
   T — вектор температур в узлах

 Итог: Дифференциальное уравнение → Матричное уравнение
       Бесконечномерная задача → Конечномерная линейная алгебра


 Подводные камни дискретизации


 Проблема 1: Потеря точности в float
 -----------------------------------
   В ℝ: (a + b) + c = a + (b + c)  — ассоциативность
   В float: может быть ложно.

   Пример: a = 1.0, b = 1e-16, c = 1e-16
     (a + b) + c = 1.0 + 1e-16 = 1.0  (b теряется)
     a + (b + c) = 1.0 + 2e-16 ≈ 1.0  (но чуть больше)

 Проблема 2: Неустойчивость схем
 -------------------------------
   Явная схема для теплопроводности:
     T[i,n+1] = T[i,n] + (aΔt/h²)(T[i+1,n] − 2T[i,n] + T[i-1,n])

   Устойчива только при: aΔt/h² ≤ 0.5 (условие Куранта)
   Иначе — осцилляции и взрыв решения.

 Проблема 3: Плохая обусловленность матрицы
 -------------------------------------------
   cond(A) = ‖A‖·‖A⁻¹‖ — число обусловленности
   Если cond(A) ≫ 1, малые ошибки в данных → большие ошибки в решении

   При уменьшении h: cond(D₂) ~ 1/h² → плохо.


 Z-преобразование — Лаплас для дискретных систем


 Определение:
   X(z) = Z[xₙ] = Σₙ₌₀^∞ xₙ z⁻ⁿ

 Связь с Лапласом:
   • Лаплас: L[x(t)] = ∫₀^∞ x(t) e⁻ˢᵗ dt    (непрерывное время)
   • Z:      Z[xₙ] = Σ xₙ z⁻ⁿ               (дискретное время)

   При дискретизации с шагом T:  z = eˢᵀ

 Ключевые свойства:
 +---------------------+--------------------------------+
 | Время               | Z-область                      |
 +---------------------+--------------------------------+
 | Задержка: xₙ₋₁      | z⁻¹ X(z)                       |
 | Разность: xₙ − xₙ₋₁ | (1 − z⁻¹) X(z)                 |
 | Свёртка: (x*y)ₙ     | X(z)·Y(z)                      |
 | Начальное значение  | lim_{z→∞} X(z) = x₀            |
 | Конечное значение   | lim_{z→1} (1−z⁻¹)X(z) = lim xₙ |
 +---------------------+--------------------------------+

 Применение в DSP (цифровая обработка сигналов):
   • Цифровой фильтр: Y(z) = H(z)·X(z)
   • Передаточная функция: H(z) = (b₀ + b₁z⁻¹ + ...)/(1 + a₁z⁻¹ + ...)
   • Устойчивость: все полюсы H(z) внутри единичного круга |z| < 1

 Аналогия с Лапласом:
 +------------------------+-----------------------+------------------------+
 | ПОНЯТИЕ                | s-область (Лаплас)    | z-область              |
 +------------------------+-----------------------+------------------------+
 | Устойчивость           | Re(s) < 0             | |z| < 1                |
 | Граница устойчивости   | мнимая ось            | единичная окружность   |
 | Частотная хар-ка       | s = iω                | z = e^{iωT}            |
 +------------------------+-----------------------+------------------------+


 Резюме: связь разделов


   +----------------------+      дискретизация      +-----------------------+
   | Матанализ        |  ---------------------► | Линейная алгебра   |
   | (производные, инт-лы)|                         | (матрицы, системы)    |
   +----------------------+                         +-----------------------+

   +----------------------+      дискретизация      +-----------------------+
   | Многообразия      |  ---------------------► | Графы             |
   | (гладкие поверхности)|        (FEM)            | (сетки, узлы, рёбра)  |
   +----------------------+                         +-----------------------+

   +----------------------+      дискретизация      +-----------------------+
   | Функ. анализ     |  ---------------------► | Численная линейная    |
   | (операторы)          |                         | алгебра               |
   +----------------------+                         +-----------------------+

 Непрерывная математика даёт понимание (почему работает).
 Дискретная математика даёт вычисление (как посчитать).


===============================================================================
Словарь: инженерный жаргон ↔ математическая терминология
===============================================================================

 Введение


 Инженеры и математики часто говорят об одном и том же разными словами.
 Этот словарь помогает "переводить" между языками.


 Теория управления и сигналов
+---------------------------+---------------------------------------------------+
| ИНЖЕНЕРНЫЙ ТЕРМИН         | МАТЕМАТИЧЕСКИЙ ЭКВИВАЛЕНТ                         |
+---------------------------+---------------------------------------------------+
| Сигнал x(t)               | Функция x ∈ L²(ℝ) или распределение               |
+---------------------------+---------------------------------------------------+
| Система, "чёрный ящик"    | Оператор T: X → Y между функц. пространствами     |
+---------------------------+---------------------------------------------------+
| Линейная система          | Линейный оператор T(ax+by) = aT(x)+bT(y)          |
+---------------------------+---------------------------------------------------+
| Стационарная (LTI)        | Инвариантная относительно сдвига: T∘τ_s = τ_s∘T   |
| система                   | где τ_s — оператор сдвига на s                    |
+---------------------------+---------------------------------------------------+
| Импульсная характ. h(t)   | Ядро свёртки: y = h * x, т.е. y(t)=∫h(τ)x(t-τ)dτ  |
+---------------------------+---------------------------------------------------+
| Передаточная функция H(s) | Символ оператора / преобр. Лапласа ядра           |
|                           | H(s) = ℒ{h}(s), связь: Y(s) = H(s)X(s)            |
+---------------------------+---------------------------------------------------+
| Частотная хар-ка H(iω)    | Преобразование Фурье: H(iω) = ℱ{h}(ω)             |
+---------------------------+---------------------------------------------------+
| Полюсы передаточной       | Собственные значения оператора                    |
| функции                   | (корни характеристического многочлена)            |
+---------------------------+---------------------------------------------------+
| Устойчивая система        | Спектр оператора в левой полуплоскости Re(s)<0 |
| (BIBO-устойчивость)       | или: все собственные значения с Re(λ)<0        |
+---------------------------+---------------------------------------------------+
| Резонанс                  | Вынуждающая частота близка к мнимой части         |
|                           | собственного значения (полюса)                    |
+---------------------------+---------------------------------------------------+
| Обратная связь            | Модификация оператора: T_fb = T/(1 + KT)          |
| (feedback)                | Изменение собственных значений.                   |
+---------------------------+---------------------------------------------------+
| Управляемость             | Достижимость любой точки в пр-ве состояний        |
|                           | rank[B, AB, A²B, ...] = n (критерий Калмана)      |
+---------------------------+---------------------------------------------------+
| Наблюдаемость             | Восстановимость состояния по выходу               |
|                           | rank[C; CA; CA²; ⋯] = n                           |
+---------------------------+---------------------------------------------------+

 Механика и теплотехника
+--------------------------+--------------------------------------------------+
| ИНЖЕНЕРНЫЙ ТЕРМИН        | МАТЕМАТИЧЕСКИЙ ЭКВИВАЛЕНТ                        |
+--------------------------+--------------------------------------------------+
| Распределённая система   | PDE (уравнение в частных производных)           |
| (теплопроводность, волны)| Решение — функция u(x,t) нескольких переменных  |
+--------------------------+--------------------------------------------------+
| Сосредоточенные парам.   | ODE (обыкновенное дифф. уравнение)              |
| (точечные массы, ёмкости)| Решение — вектор-функция x(t)                   |
+--------------------------+--------------------------------------------------+
| Граничные условия        | Значения функции (или производных) на ∂Ω       |
|                          | След u|_{∂Ω} — элемент пространства Соболева   |
+--------------------------+--------------------------------------------------+
| Собственная частота ωₙ   | √λₙ, где λₙ — собств. значение оператора       |
|                          | (Лапласиана с граничными условиями)              |
+--------------------------+--------------------------------------------------+
| Мода колебаний φₙ(x)     | Собственная функция: −∇²φₙ = λₙφₙ              |
+--------------------------+--------------------------------------------------+
| Разложение по модам      | Разложение по ортогональному базису из собств.  |
|                          | функций: u(x,t) = Σ cₙ(t)φₙ(x)                  |
+--------------------------+--------------------------------------------------+
| Демпфирование            | Диссипативный член в операторе                  |
|                          | Сдвигает собств. значения влево (Re↓)           |
+--------------------------+--------------------------------------------------+
| Тензор напряжений σᵢⱼ    | Симметричный тензор 2-го ранга                  |
|                          | σ: TₚM ⊗ TₚM → ℝ (билинейная форма)             |
+--------------------------+--------------------------------------------------+
| Градиент температуры     | 1-форма dT ∈ Ω¹(M), или вектор ∇T = g⁻¹(dT)    |
+--------------------------+--------------------------------------------------+
| Тепловой поток q         | Вектор или 2-форма (интегрируется по площадке)  |
|                          | q = −k∇T (закон Фурье = k связывает их)        |
+--------------------------+--------------------------------------------------+

 Статистика и машинное обучение
+--------------------------+------------------------------------------------+
| ИНЖЕНЕРНЫЙ ТЕРМИН        | МАТЕМАТИЧЕСКИЙ ЭКВИВАЛЕНТ                      |
+--------------------------+------------------------------------------------+
| Данные (выборка)         | Эмпирическая мера: μ_n = (1/n)Σδ_{xᵢ}          |
+--------------------------+------------------------------------------------+
| Признаки (features)      | Координаты в признаковом пространстве ℝᵖ       |
+--------------------------+------------------------------------------------+
| Главные компоненты (PCA) | Собственные векторы ковариационной матрицы     |
|                          | = направления максимальной дисперсии           |
+--------------------------+------------------------------------------------+
| Кластеризация            | Разбиение пространства по метрике              |
|                          | (Вороного, k-means, ...)                       |
+--------------------------+------------------------------------------------+
| Ядерные методы (kernel)  | Воспроизводящее ядро гильбертова пространства  |
|                          | K(x,y) = ⟨φ(x), φ(y)⟩ для вложения φ: X → H    |
+--------------------------+------------------------------------------------+
| Регуляризация            | Ограничение на норму решения                   |
| (L1, L2, ...)            | min ‖Ax-b‖² + λ‖x‖ₚ — задача в банаховом пр-ве |
+--------------------------+------------------------------------------------+
| Переобучение             | Аппроксимация шума, а не сигнала               |
| (overfitting)            | Нарушение bias-variance tradeoff               |
+--------------------------+------------------------------------------------+
| Градиентный спуск        | Итерационный метод: xₖ₊₁ = xₖ − α∇f(xₖ)        |
|                          | Сходимость: выпуклость + условие Липшица       |
+--------------------------+------------------------------------------------+

===============================================================================
Как пользоваться таблицами при решении задач
===============================================================================

Пошаговый алгоритм:

Шаг 1: определить уровень (Главная таблица)
        ↓
       На каком уровне абстракции находится задача?

Шаг 2: определить тип структуры (столпы в главной таблице)
        ↓
       Дискретное? Алгебраическое? Топологическое? Аналитическое?

Шаг 3: идентифицировать отношения
        ↓
       Какие отношения даны? ∈, ⊆, ~, ≤, →?

Шаг 4: искать аналогию (Таблица аналогий)
        ↓
       Видели ли похожий паттерн в другой области?

Шаг 5: выбрать метод доказательства
        ↓
       Прямое? От противного? Индукция? Контрапозиция?

Шаг 6: построить путь (Философия)
        ↓
       Доказательство = путь вложений множеств

Шаг 7: Проверить
        ↓
       Все вложения корректны?

Конкретный пример:

Задача: Доказать, что сумма двух чётных чисел чётна

Шаг 1: Уровень — Числа (ℤ), Уровень 4
Шаг 2: Тип — Алгебраическое (операция +) + Дискретное (делимость)
Шаг 3: Отношения — "Чётные" = {n ∈ ℤ : ∃k, n = 2k}
Шаг 4: Аналогия — Замкнутость подгруппы.
Шаг 5: Метод — Прямое доказательство
Шаг 6: Путь:
        1. a = 2k, b = 2m
        2. a + b = 2k + 2m = 2(k+m)
        3. ⇒ a + b чётно ✓
Шаг 7: Проверка — ✓ все шаги корректны

-------------------------------------------------------------------------------

Второй пример: Более сложная задача

Задача: Доказать, что множество иррациональных чисел несчётно

Шаг 1: определить уровень
         • Множества + кардинальность → Уровень 2 (теория множеств)
         • Но используем факты о ℝ и ℚ → Уровень 4 (числа)

Шаг 2: определить тип
         • Дискретное (мощности множеств)
         • Работаем с "размерами" бесконечных множеств

Шаг 3: идентифицировать отношения
         Дано:
           • ℝ несчётно (теорема Кантора)
           • ℚ счётно (известный факт)
           • Иррациональные = ℝ \ ℚ

         Требуется:
           • |ℝ \ ℚ| несчётно

Шаг 4: искать аналогию
         Вспоминаем арифметику мощностей:
           • Если A конечно, B конечно ⇒ A ∪ B конечно
           • Аналогия для бесконечных: счётное + счётное = счётное
           • Но: несчётное ≠ счётное + счётное

Шаг 5: выбрать метод
         • От противного (reductio ad absurdum)
         • Предположим, что иррациональные счётны → противоречие

Шаг 6: построить путь (доказательство)
         1. Предположим, что ℝ \ ℚ счётно               [от противного]

         2. ℚ счётно (известно)                         [факт]

         3. ℝ = ℚ ∪ (ℝ \ ℚ)                             [разбиение]

         4. Счётное ∪ Счётное = Счётное                 [теорема]

         5. ⇒ ℝ счётно                                  [из 1,2,3,4]

         6. Но ℝ несчётно (диагональный метод Кантора)  [противоречие]

         7. ⇒ Предположение неверно                     [reductio]

         8. ⇒ ℝ \ ℚ несчётно                            ✓

         Геометрия (множества):
           Если бы ℝ\ℚ было счётным:

           ℝ = ℚ ∪ (ℝ\ℚ)
               ↓     ↓
            счётное + счётное = счётное  (должно быть)

           Но ℝ несчётное. → противоречие

         Философия:
           Пытались представить ℝ как объединение двух счётных множеств.
           Получили абсурд: ℝ одновременно счётно и несчётно.
           Значит, одно из множеств несчётно. Так как ℚ счётно, то ℝ\ℚ несчётно.

Шаг 7: Проверить
         ✓ Используемые факты верны (ℚ счётно, ℝ несчётно)
         ✓ Теорема о счётном объединении верна
         ✓ Логика от противного применена корректно
         ✓ Противоречие реальное (не мнимое)

===============================================================================
Типичные задачи — от формулировки к методу
===============================================================================

+------------------+----------------------+------------------------------+
| ФОРМУЛИРОВКА     | ТИП ЗАДАЧИ           | МЕТОД                        |
+------------------+----------------------+------------------------------+
| "Доказать x ∈ A" | Принадлежность       | Прямое: показать определение |
| "Доказать A ⊆ B" | Включение            | Взять произвольный x ∈ A     |
| "Доказать A = B" | Равенство множеств   | Показать A ⊆ B и B ⊆ A       |
| "Не существует"  | Несуществование      | От противного                |
| "Для всех n ∈ ℕ" | Для всех натуральных | Индукция                     |
| "P ⇒ Q"          | Импликация           | Прямое или контрапозиция     |
| "P ⇔ Q"          | Эквивалентность      | Две импликации               |
| "Существует      | Существование +      | Построение + единственность  |
| единственный"    | единственность       | отдельно                     |
+------------------+----------------------+------------------------------+

===============================================================================
Исторический атлас — как математика росла по уровням
===============================================================================

+-----------+----------------------------------------------------------------+
| ПЕРИОД    | ЧТО ПОЯВИЛОСЬ (по уровням главной таблицы)                     |
+-----------+----------------------------------------------------------------+
| ~3000 BC  | УРОВЕНЬ 2-3: ℕ, ℤ, ℚ, геометрия Евклида, логика Аристотеля     |
| - 300 BC  |                                                                |
|           | • Евклид "Начала" — первая аксиоматическая система             |
|           | • Аристотель — формализация логики                             |
+-----------+----------------------------------------------------------------+
| 1500-1700 | УРОВЕНЬ 4: ℂ, исчисление                                       |
|           |                                                                |
|           | • Комплексные числа ℂ (Кардано, ~1545)                         |
|           | • Исчисление (Ньютон, Лейбниц, ~1670-1680)                     |
+-----------+----------------------------------------------------------------+
| 1800-1850 | УРОВЕНЬ 4-5: Группы, строгость анализа                         |
|           |                                                                |
|           | • Грассман — векторные пространства (~1844)                    |
|           | • Галуа — теория групп (~1830)                                 |
|           | • Вейерштрасс — ε-δ определения (~1850)                        |
+-----------+----------------------------------------------------------------+
| 1850-1900 | УРОВЕНЬ 2, 5: Множества, топология                             |
|           |                                                                |
|           | • Кантор — теория множеств (~1870-1880) [фундамент]           |
+-----------+----------------------------------------------------------------+
| 1900-1930 | УРОВЕНЬ 5-6: Топология, функциональный анализ                  |
|           |                                                                |
|           | • Лебег — теория меры (~1902)                                  |
|           | • Фреше — метрические пространства (~1906)                     |
|           | • Хаусдорф — общая топология (~1914)                           |
|           | • Банах — функциональный анализ (~1920-1930)                   |
|           | • Гёдель — теоремы о неполноте (~1931)                         |
+-----------+----------------------------------------------------------------+
| 1930-1960 | УРОВЕНЬ 6: Категории, алгебраическая топология                 |
|           |                                                                |
|           | • Эйленберг, Маклейн — теория категорий (~1945) [мета-уровень] |
|           | • Бурбаки — структуралистский подход (~1935)                   |
|           | • Колмогоров — аксиоматическая теория вероятностей (~1933)     |
+-----------+----------------------------------------------------------------+

Ключевое наблюдение:

  История математики идёт снизу вверх по главной таблице.
  Каждая эпоха строит на предыдущих уровнях.

===============================================================================
                           Типичные заблуждения
===============================================================================

Эти ошибки совершают почти все. Лучше узнать о них заранее.

 Заблуждения в логике
+--------------------------------+--------------------------------------------+
| ОШИБКА                         | ПРАВДА                                     |
+--------------------------------+--------------------------------------------+
| "Из ложного следует только     | Из ложного следует ЧТО УГОДНО.             |
| ложное"                        | F → P истинно для любого P                 |
+--------------------------------+--------------------------------------------+
| "∀ и ∃ можно менять местами"   | ∀x∃y P(x,y) ≢ ∃y∀x P(x,y)                  |
|                                | "У каждого своя мама" ≠ "Одна мама у всех" |
+--------------------------------+--------------------------------------------+
| "Доказать = проверить примеры" | Примеры никогда не доказывают ∀-утв.       |
|                                | Но один контрпример опровергает            |
+--------------------------------+--------------------------------------------+

 Заблуждения в алгебре
+---------------------------+--------------------------------------------+
| ОШИБКА                    | ПРАВДА                                     |
+---------------------------+--------------------------------------------+
| "Группа — это числа с     | Группа — множество СИММЕТРИЙ объекта.      |
| операцией"                | Числа — лишь один частный случай           |
+---------------------------+--------------------------------------------+
| "В группе всегда ab = ba" | Только в АБЕЛЕВЫХ группах.                 |
|                           | Повороты + отражения: НЕ коммутативны      |
+---------------------------+--------------------------------------------+
| "(ab)⁻¹ = a⁻¹b⁻¹"         | (ab)⁻¹ = b⁻¹a⁻¹ — порядок ОБРАТНЫЙ.        |
|                           | (надеть носки, ботинки)⁻¹ = снять ботинки, |
|                           | снять носки                                |
+---------------------------+--------------------------------------------+

 Заблуждения в топологии
+-------------------------------+-------------------------------------------+
| ОШИБКА                        | ПРАВДА                                    |
+-------------------------------+-------------------------------------------+
| "Открытое = без границы"      | Открытое = "внутри каждой точки есть шар" |
|                               | ℝ открыто в ℝ, хотя "границы нет"         |
+-------------------------------+-------------------------------------------+
| "Множество либо открыто,      | Может быть и тем и другим (∅, X)          |
| либо закрыто"                 | Может быть НИ тем НИ другим: [0,1) в ℝ    |
+-------------------------------+-------------------------------------------+
| "Непрерывная функция не может | x ↦ 1/x непрерывна на (0,∞) и → ∞         |
| уходить в бесконечность"      | Непрерывность ≠ ограниченность            |
+-------------------------------+-------------------------------------------+
| "Бублик и чашка — это шутка"  | Это ТОЧНАЯ теорема: оба имеют род 1       |
|                               | (одну дырку), значит гомеоморфны          |
+-------------------------------+-------------------------------------------+

 Заблуждения в линейной алгебре
+-------------------------------+-------------------------------------------+
| ОШИБКА                        | ПРАВДА                                    |
+-------------------------------+-------------------------------------------+
| "Вектор — это стрелка"        | Вектор — элемент векторного пространства. |
|                               | Функции, матрицы, ряды — тоже векторы.    |
+-------------------------------+-------------------------------------------+
| "Матрица — это таблица чисел" | Матрица — ПРЕДСТАВЛЕНИЕ линейного         |
|                               | оператора в конкретном базисе.            |
|                               | Меняем базис — меняется матрица           |
+-------------------------------+-------------------------------------------+
| "det(A+B) = det(A) + det(B)"  | НЕВЕРНО. det мультипликативен:            |
|                               | det(AB) = det(A)·det(B)                   |
+-------------------------------+-------------------------------------------+
| "Если det A = 0, матрица      | Матрица есть, но она НЕОБРАТИМА.          |
| не существует"                | Некоторые векторы "схлопываются" в ядро   |
+-------------------------------+-------------------------------------------+

 Заблуждения в дифференциальной геометрии
+------------------------------+-------------------------------------------+
| ОШИБКА                       | ПРАВДА                                    |
+------------------------------+-------------------------------------------+
| "dx — бесконечно малая       | dx — базисный элемент кокасательного      |
| величина"                    | пространства T*M. Линейная функция.       |
+------------------------------+-------------------------------------------+
| "∫ — просто антипроизводная" | ∫ₘω — независимое понятие (интеграл формы |
|                              | по многообразию). Связь через Стокса.     |
+------------------------------+-------------------------------------------+
| "Кривизна — это изогнутость" | Внутренняя кривизна определяется через    |
|                              | параллельный перенос вектора по контуру.  |
|                              | Цилиндр: K=0 (плоский). Сфера: K>0.   |
+------------------------------+-------------------------------------------+
| "Связность — абстрактная     | Связность определяет, что значит          |
| ерунда"                      | "параллельно" в искривлённом пр-ве.       |
|                              | Без неё нельзя сравнивать векторы в       |
|                              | разных точках.                            |
+------------------------------+-------------------------------------------+

 Заблуждения в математическом анализе
+------------------------------+--------------------------------------------+
| ОШИБКА                       | ПРАВДА                                     |
+------------------------------+--------------------------------------------+
| "Производная — это скорость" | Производная — ЛИНЕЙНОЕ ПРИБЛИЖЕНИЕ.        |
|                              | Скорость — лишь один физический пример.    |
|                              | f(x+h) ≈ f(x) + f'(x)·h — вот суть.        |
+------------------------------+--------------------------------------------+
| "Интеграл — это площадь"     | Площадь — частный случай.                  |
|                              | Интеграл — это мера: обобщённый            |
|                              | "размер" множества или функционал на C(X). |
+------------------------------+--------------------------------------------+
| "∞ — это число"              | ∞ — это СИМВОЛ для записи пределов.        |
|                              | Нельзя: ∞ − ∞, ∞/∞, 0·∞ — неопределённо.   |
+------------------------------+--------------------------------------------+
| "1/0 = ∞"                    | 1/0 НЕ ОПРЕДЕЛЕНО в ℝ.                     |
|                              | lim(1/x) = ∞ при x→0⁺ — это поведение,     |
|                              | не значение в точке.                       |
+------------------------------+--------------------------------------------+
| "Сходящийся ряд можно        | Только АБСОЛЮТНО сходящийся.               |
| переставлять"                | Условно сходящийся → теорема Римана:       |
|                              | перестановкой получим любую сумму.         |
+------------------------------+--------------------------------------------+

 Заблуждения о тензорах
+--------------------------------+--------------------------------------------+
| ОШИБКА                         | ПРАВДА                                     |
+--------------------------------+--------------------------------------------+
| "Тензор — это многомерный      | Тензор — МУЛЬТИЛИНЕЙНАЯ ФУНКЦИЯ.           |
| массив чисел"                  | Массив — лишь представление в базисе.      |
|                                | Тензор существует независимо от координат. |
+--------------------------------+--------------------------------------------+
| "Матрица — это тензор 2-го     | Матрица — представление оператора V → W.   |
| ранга"                         | Тензор типа (1,1) — это V* ⊗ V.            |
|                                | Матрица меняется при замене базиса,        |
|                                | тензор — нет.                              |
+--------------------------------+--------------------------------------------+
| "Индексы вверху/внизу — просто | Это разные объекты: вектор (↑) vs          |
| обозначения"                   | ковектор (↓). Связаны через метрику.       |
|                                | vⁱ = gⁱʲvⱼ — поднятие индекса требует g.   |
+--------------------------------+--------------------------------------------+

 Заблуждения о вероятности
+--------------------------------+--------------------------------------------+
| ОШИБКА                         | ПРАВДА                                     |
+--------------------------------+--------------------------------------------+
| "Вероятность — это частота"    | Частота — одна ИНТЕРПРЕТАЦИЯ. Математически|
|                                | вероятность — это мера со свойством P(Ω)=1.|
|                                | Байесовская вероятность — степень уверен. |
+--------------------------------+--------------------------------------------+
| "P(A|B) = P(B|A)"              | НЕВЕРНО. P(болезнь|тест⁺) ≠ P(тест⁺|болезнь)|
|                                | Это путают даже врачи. Используй Байеса.  |
+--------------------------------+--------------------------------------------+
| "Независимые события не могут  | Независимость: P(A∩B) = P(A)·P(B).        |
| произойти вместе"              | Они могут произойти вместе. Просто знание |
|                                | об одном не меняет вероятность другого.   |
+--------------------------------+--------------------------------------------+
| "После 10 орлов шанс решки     | ОШИБКА ИГРОКА. Монета не помнит прошлое.  |
| выше"                          | P(решка) = 0.5 на каждом броске.          |
+--------------------------------+--------------------------------------------+

 Заблуждения о мерах и интегралах
+------------------------------+-------------------------------------------+
| ОШИБКА                       | ПРАВДА                                    |
+------------------------------+-------------------------------------------+
| "Любое множество имеет меру" | Существуют НЕИЗМЕРИМЫЕ множества.         |
|                              | (Пример Витали, следствие аксиомы выбора) |
+------------------------------+-------------------------------------------+
| "Интеграл Римана — это       | Лебег: интегрируем по значениям функции.  |
| единственный интеграл"       | Риман не интегрирует характеристическую   |
|                              | функцию ℚ, Лебег — интегрирует (= 0).     |
+------------------------------+-------------------------------------------+
| "Множество меры нуль —       | Канторово множество: несчётно, но μ = 0!  |
| конечное или счётное"        | Мера и мощность — разные понятия.         |
+------------------------------+-------------------------------------------+

 Главное заблуждение


   "Разделы математики — это разные предметы"

   Правда:
   Это один предмет, рассматриваемый с разных сторон.
   Группа — это категория с одним объектом.
   Топология — это категория открытых множеств.
   Векторное пр-во — это модуль над полем.
   Дифференциальная форма — это сечение расслоения.

   Когда понимаешь глубинную структуру, границы между разделами исчезают.


 Почему X не является Y — отрицательные Примеры


 Понимание того, чем объект НЕ является, не менее важно, чем знать, чем
 он является. Вот ключевые различия:


 Алгебраические структуры
+--------------------------------+--------------------------------------------+
| УТВЕРЖДЕНИЕ                    | ПРИЧИНА                                    |
+--------------------------------+--------------------------------------------+
| ℤ — кольцо, но НЕ поле         | Нет деления: 1/2 ∉ ℤ                      |
+--------------------------------+--------------------------------------------+
| ℤ/6ℤ — кольцо, но НЕ          | Есть делители нуля: 2·3 = 0 (mod 6)       |
| целостное кольцо               |                                            |
+--------------------------------+--------------------------------------------+
| (ℝ>0, ×) — группа, но         | Нет нейтрального элемента для + (0 ∉ ℝ>0) |
| (ℝ>0, +) — НЕ группа           |                                            |
+--------------------------------+--------------------------------------------+
| Кватернионы ℍ — тело, но       | ab ≠ ba (некоммутативность умножения)     |
| НЕ поле                        |                                            |
+--------------------------------+--------------------------------------------+
| ПРОСТРАНСТВА и НОРМЫ                                                        |
+--------------------------------+--------------------------------------------+
| L¹[0,1] — банахово, но НЕ      | Норма ‖f‖₁ = ∫|f| не порождается         |
| гильбертово                    | скалярным произведением (нарушен паралл.) |
+--------------------------------+--------------------------------------------+
| C[0,1] с ‖·‖∞ — нормировано,  | Есть последовательность Коши без предела  |
| но НЕ полно по ‖·‖₁           | в C[0,1]: предел — разрывная функция      |
+--------------------------------+--------------------------------------------+
| Метрика d(x,y) = |x−y|/(1+|x−y|)| d(x,y) ≤ 1, но исходное ℝ неограничено  |
| не порождается нормой          | Нет линейной структуры на уровне метрики  |
+--------------------------------+--------------------------------------------+
| ТОПОЛОГИЧЕСКИЕ СВОЙСТВА                                                     |
+--------------------------------+--------------------------------------------+
| ℚ — НЕ связное                 | ℚ = (−∞,√2)∩ℚ ∪ (√2,∞)∩ℚ — два открытых|
+--------------------------------+--------------------------------------------+
| [0,1) — НЕ компактно           | Покрытие (1/n, 1) не имеет конечного      |
| (в отличие от [0,1])           | подпокрытия                               |
+--------------------------------+--------------------------------------------+
| Цилиндр — НЕ гомеоморфен       | π₁(цилиндр) = ℤ ≠ 0 = π₁(плоскость)     |
| плоскости                      | (хотя оба локально евклидовы)             |
+--------------------------------+--------------------------------------------+
| ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ                                                       |
+--------------------------------+--------------------------------------------+
| Слабая сходимость НЕ влечёт    | eₙ → 0 слабо в L², но ‖eₙ‖ = 1           |
| сходимость по норме            | (ортонормированный базис)                 |
+--------------------------------+--------------------------------------------+
| Компактность в ∞-мерном        | Замкнутый единичный шар в L² —            |
| НЕ эквивалентна замкнутости +  | замкнут и ограничен, но НЕ компактен.    |
| ограниченности                 |                                            |
+--------------------------------+--------------------------------------------+
| Непрерывный линейный оператор  | Сдвиг в ℓ²: T(x₁,x₂,...) = (0,x₁,x₂,...) |
| НЕ обязательно имеет собств.   | Инъективен, но Tx = λx ⇒ x = 0           |
| значения                       |                                            |
+--------------------------------+--------------------------------------------+

===============================================================================
                           Справочник нотаций
===============================================================================

Все символы, используемые в настоящем стандарте:

Замечание: некоторые символы используются в разных разделах с разным смыслом —
контекст всегда однозначно указывает, какое значение подразумевается:
  • ≅  — изоморфизм (в алгебре) / гомеоморфизм (в топологии)
  • ∧  — внешнее произведение (в алгебре) / конъюнкция (в логике)
  • →  — импликация (в логике) / отображение (в теории множеств)
  • ∂  — граница множества (в топологии) / частная производная (в анализе)
  • ⊥  — ортогональность (в лин. алгебре) / перпендикулярность (в геометрии)

 Логические символы
+--------+---------------------+-----------------------------------------+
| СИМВОЛ | НАЗВАНИЕ            | ЗНАЧЕНИЕ                                |
+--------+---------------------+-----------------------------------------+
| ∀      | Квантор всеобщности | "для всех", "для любого"                |
| ∃      | Квантор существов.  | "существует", "найдётся хотя бы один"   |
| ∃!     | Единственность      | "существует единственный"               |
| ¬      | Отрицание           | "не", "неверно что"                     |
| ∧      | Конъюнкция          | "и", "одновременно"                     |
| ∨      | Дизъюнкция          | "или" (включающее)                      |
| →      | Импликация          | "если…, то…", "влечёт"              |
| ↔      | Эквиваленция        | "тогда и только тогда", "равносильно"   |
| ⊢      | Выводимость         | "из левого выводится правое"            |
| ⊨      | Семант. следование  | "из левого семантически следует правое" |
+--------+---------------------+-----------------------------------------+

 Теоретико-множественные символы
+---------+---------------------+---------------------------------------------+
| СИМВОЛ  | НАЗВАНИЕ            | ЗНАЧЕНИЕ                                    |
+---------+---------------------+---------------------------------------------+
| ∈       | Принадлежность      | x ∈ A: "x является элементом A"             |
| ∉       | Непринадлежность    | x ∉ A: "x не является элементом A"          |
| ⊂, ⊆    | Подмножество        | A ⊂ B: "каждый элемент A есть элемент B"    |
| ⊃, ⊇    | Надмножество        | A ⊃ B: эквивалентно B ⊂ A                   |
| ∪       | Объединение         | A ∪ B = {x : x∈A или x∈B}                   |
| ∩       | Пересечение         | A ∩ B = {x : x∈A и x∈B}                     |
| \       | Разность            | A \ B = {x : x∈A и x∉B}                     |
| ∅       | Пустое множество    | Множество без элементов                     |
| ℘(A)    | Булеан              | Множество всех подмножеств A                |
| |A|     | Мощность            | Количество элементов (для конечных)         |
| ×       | Декартово произвед. | A×B = {(a,b) : a∈A, b∈B}                    |
+---------+---------------------+---------------------------------------------+

 Символы отображений
+--------+---------------------+---------------------------------------------+
| СИМВОЛ | НАЗВАНИЕ            | ЗНАЧЕНИЕ                                    |
+--------+---------------------+---------------------------------------------+
| →      | Отображение         | f: X → Y: "f из X в Y"                      |
| ↦      | Правило отображения | x ↦ f(x): "x переходит в f(x)"              |
| ∘      | Композиция          | (g∘f)(x) = g(f(x))                          |
| f⁻¹    | Обратное / Прообраз | Обратное отображение или прообраз множества |
| id     | Тождественное       | id(x) = x                                   |
| Im, im | Образ               | Im f = f(X) = {f(x) : x∈X}                  |
| ker    | Ядро                | ker f = {x : f(x) = e} (e — нейтральный)    |
| Hom    | Множество морфизмов | Hom(A,B) = {морфизмы из A в B}              |
+--------+---------------------+---------------------------------------------+

 Числовые множества
+---------+---------------------+---------------------------------------------+
| СИМВОЛ  | НАЗВАНИЕ            | ЭЛЕМЕНТЫ                                    |
+---------+---------------------+---------------------------------------------+
| ℕ       | Натуральные         | {0, 1, 2, 3, ...} или {1, 2, 3, ...}      |
| ℤ       | Целые               | {..., −2, −1, 0, 1, 2, ...}                 |
| ℚ       | Рациональные        | {p/q : p∈ℤ, q∈ℤ, q≠0}                      |
| ℝ       | Вещественные        | Числовая прямая (включая иррациональные)    |
| ℂ       | Комплексные         | {a + bi : a,b∈ℝ, i² = −1}                   |
| ℍ       | Кватернионы         | 4-мерное расширение ℂ (некоммутативное)*    |
| 𝕆       | Октонионы           | 8-мерное расширение ℍ (неассоциативное)     |
+---------+---------------------+---------------------------------------------+
| *ℍ: x²+1=0 имеет ∞ корней (±i, ±j, ±k и все их комбинации на S²)          |
| ℝⁿ      | n-мерное простр.    | Множество n-ок (x₁, ..., xₙ), xᵢ∈ℝ         |
+---------+---------------------+---------------------------------------------+
| S¹      | Единичная окружн.   | {z ∈ ℂ : |z| = 1} = {e^{iθ} : θ ∈ [0,2π)}  |
| Sⁿ      | n-мерная сфера      | {x ∈ ℝⁿ⁺¹ : |x| = 1}. S² — обычная сфера   |
| Tⁿ      | n-мерный тор        | S¹ × S¹ × ... × S¹ (n раз). T² — бублик    |
| ℝPⁿ     | Проективное простр. | Прямые через 0 в ℝⁿ⁺¹. ℝP¹ ≅ S¹           |
+---------+---------------------+---------------------------------------------+

 Алгебраические символы
+---------+---------------------+-------------------------------------+
| СИМВОЛ  | НАЗВАНИЕ            | ЗНАЧЕНИЕ                            |
+---------+---------------------+-------------------------------------+
| ·, ∗    | Групповая операция  | Бинарная операция (умножение)       |
| e, 1    | Нейтральный элемент | e·g = g·e = g для всех g            |
| g⁻¹     | Обратный элемент    | g·g⁻¹ = g⁻¹·g = e                   |
| ≤, < | Подгруппа           | H ≤ G: "H — подгруппа G"            |
| ⊲, ⊴    | Нормальная подгр.   | H ⊲ G: "H — нормальная подгруппа G" |
| G/H     | Факторгруппа        | Множество смежных классов gH        |
| ≅       | Изоморфизм          | G ≅ H: "G изоморфна H"              |
| ⊕       | Прямая сумма        | V ⊕ W (для векторных пространств)   |
| ⊗       | Тензорное произв.   | V ⊗ W (тензорное произведение)      |
| ∧       | Внешнее произв.     | v ∧ w (антисимметричное)            |
+---------+---------------------+-------------------------------------+

 Топологические символы
+--------+-------------------+---------------------------------------+
| СИМВОЛ | НАЗВАНИЕ          | ЗНАЧЕНИЕ                              |
+--------+-------------------+---------------------------------------+
| τ      | Топология         | Семейство открытых множеств           |
| B(x,ε) | Открытый шар      | {y : d(x,y) < ε}                   |
| Ā      | Замыкание         | Наименьшее замкнутое, содержащее A    |
| int(A) | Внутренность      | Наибольшее открытое, содержащееся в A |
| ∂A     | Граница           | Ā \ int(A)                            |
| ≅      | Гомеоморфизм      | Топологическая эквивалентность        |
| ≃      | Гомотоп. эквив.   | Гомотопическая эквивалентность        |
| π₁     | Фундамент. группа | π₁(X) — группа петель в X             |
| Hₙ     | Группа гомологий  | n-мерные "дырки" в пространстве       |
+--------+-------------------+---------------------------------------+

 Символы линейной алгебры
+--------+----------------------+---------------------------------------+
| СИМВОЛ | НАЗВАНИЕ             | ЗНАЧЕНИЕ                              |
+--------+----------------------+---------------------------------------+
| dim    | Размерность          | dim V = число базисных векторов       |
| rank   | Ранг                 | rank A = dim Im A                     |
| det    | Определитель         | det A ∈ F (для квадратных матриц)     |
| tr     | След                 | tr A = Σ aᵢᵢ (сумма диагональных)     |
| ⟨·,·⟩  | Скалярное произв.    | ⟨u,v⟩ ∈ F (билинейная форма)          |
| ‖·‖    | Норма                | ‖v‖ = √⟨v,v⟩                          |
| ⊥      | Ортогональность      | u ⊥ v ⟺ ⟨u,v⟩ = 0                     |
| V*     | Двойственное простр. | V* = Hom(V, F) — линейные функционалы |
| Aᵀ     | Транспонирование     | (Aᵀ)ᵢⱼ = Aⱼᵢ                          |
| A†, A* | Эрмитово сопряж.     | (A†)ᵢⱼ = Āⱼᵢ                          |
+--------+----------------------+---------------------------------------+

 Символы дифференциальной геометрии
+--------+---------------------+-----------------------------------+
| СИМВОЛ | НАЗВАНИЕ            | ЗНАЧЕНИЕ                          |
+--------+---------------------+-----------------------------------+
| TₚM    | Касательное простр. | Векторное пространство в точке p  |
| T*ₚM   | Кокасательное пр.   | Двойственное к TₚM                |
| d      | Внешняя производная | d: Ωᵏ → Ωᵏ⁺¹, d² = 0              |
| Ωᵏ(M)  | k-формы             | Антисимметричные (0,k)-тензоры    |
| ∇      | Связность / Набла   | Ковариантная производная          |
| ∂/∂xⁱ  | Координатный базис  | Базис касательного пространства   |
| dxⁱ    | Кобазис             | Базис кокасательного пространства |
| gᵢⱼ    | Метрический тензор  | ⟨∂/∂xⁱ, ∂/∂xʲ⟩                    |
| Γⁱⱼₖ   | Символы Кристоффеля | Коэффициенты связности            |
| Rⁱⱼₖₗ  | Тензор Римана       | Мера кривизны пространства        |
+--------+---------------------+-----------------------------------+

 Символы теории категорий
+----------+--------------------+--------------------------------------+
| СИМВОЛ   | НАЗВАНИЕ           | ЗНАЧЕНИЕ                             |
+----------+--------------------+--------------------------------------+
| Ob(C)    | Объекты            | Класс объектов категории C           |
| Mor(C)   | Морфизмы           | Класс морфизмов категории C          |
| Hom(A,B) | Hom-множество      | Морфизмы из A в B                    |
| F: C→D   | Функтор            | Отображение между категориями        |
| η: F⇒G   | Естеств. преобраз. | Семейство морфизмов ηₐ: F(A)→G(A)    |
| ⊣        | Сопряжённость      | F ⊣ G: F левый сопряжённый к G       |
| lim, ←   | Предел             | Универсальный конус над диаграммой   |
| colim,→  | Копредел           | Универсальный коконус под диаграммой |
+----------+--------------------+--------------------------------------+

 Стандартные категории
+--------+---------------------+--------------------------------------------+
| СИМВОЛ | НАЗВАНИЕ            | ОБЪЕКТЫ / МОРФИЗМЫ                         |
+--------+---------------------+--------------------------------------------+
| Set    | Категория множеств  | Множества / Функции                        |
| Grp    | Категория групп     | Группы / Гомоморфизмы групп                |
| Ab     | Абелевы группы      | Коммутативные группы / Гомоморфизмы        |
| Ring   | Категория колец     | Кольца / Гомоморфизмы колец                |
| Vect_F | Векторные простр.   | Пространства над F / Линейные отображения  |
| Top    | Топол. пространства | Простр-ва / Непрерывные отображения        |
| Man    | Многообразия        | Гладкие многообразия / Гладкие отображения |
+--------+---------------------+--------------------------------------------+


===============================================================================
                    Справочник: фундаментальные неравенства
===============================================================================

Эти неравенства используются во всей математике. Запомните их — они встретятся
в анализе, линейной алгебре, теории вероятностей, физике.

 Неравенство Коши-Буняковского-Шварца (КБШ)


 +-------------------------------------------------------------------------+
 |                |⟨u, v⟩| ≤ ‖u‖ · ‖v‖                                    |
 |                                                                         |
 | Модуль скалярного произведения ≤ произведение длин                      |
 +-------------------------------------------------------------------------+

 Частные случаи:

 Для векторов в ℝⁿ:
   |Σ aᵢbᵢ|² ≤ (Σ aᵢ²)(Σ bᵢ²)

 Для интегралов:
   |∫fg dx|² ≤ (∫f² dx)(∫g² dx)

 Для сумм:
   (a₁b₁ + a₂b₂)² ≤ (a₁² + a₂²)(b₁² + b₂²)

 Геометрический смысл:
   cos θ = ⟨u,v⟩/(‖u‖·‖v‖), а |cos θ| ≤ 1

 Когда равенство:
   u и v коллинеарны (один кратен другому): v = λu


 Неравенство треугольника


 +--------------------------+
 | ‖u + v‖ ≤ ‖u‖ + ‖v‖      |
 |                          |
 | Длина суммы ≤ суммы длин |
 +--------------------------+

 Для чисел: |a + b| ≤ |a| + |b|
 Для метрик: d(x,z) ≤ d(x,y) + d(y,z)

 Обратное неравенство:  |‖u‖ − ‖v‖| ≤ ‖u − v‖


 Неравенство о средних (AM-GM)


 +--------------------------------------------------------+
 | Для неотрицательных чисел a₁, ..., aₙ:                 |
 |                                                        |
 | (a₁ + a₂ + ... + aₙ)/n  ≥  ⁿ√(a₁ · a₂ · ... · aₙ)      |
 | AM              ≥           GM                         |
 | (среднее арифметическое)      (среднее геометрическое) |
 +--------------------------------------------------------+

 Частный случай (n = 2):
   (a + b)/2 ≥ √(ab)     равенство при a = b

 Применение:
   Минимизация суммы при фиксированном произведении (и наоборот)

 Пример: Какой прямоугольник с периметром 20 имеет max площадь?
   2(a+b) = 20 ⇒ a+b = 10
   S = ab ≤ (a+b)²/4 = 25  (max при a = b = 5, т.е. квадрат)


 Неравенство Йенсена


 +--------------------------------------------------+
 | Для ВЫПУКЛОЙ функции f и весов λᵢ ≥ 0 с Σλᵢ = 1: |
 |                                                  |
 | f(Σ λᵢxᵢ)  ≤  Σ λᵢf(xᵢ)                          |
 |                                                  |
 | Функция от среднего ≤ среднее от функции         |
 +--------------------------------------------------+

 Важно: Для вогнутой функции знак меняется на ≥

 Примеры выпуклых функций: x², eˣ, |x|, −ln x (на x>0)
 Примеры вогнутых функций: √x, ln x, −x²

 Частный случай: AM-GM следует из Йенсена для f(x) = −ln(x)


 Неравенства Гёльдера и Минковского


 Неравенство Гёльдера (обобщение КБШ):

   Для p, q > 1 с 1/p + 1/q = 1:

   +-----------------------------------------------------------------------+
   |  Σ|aᵢbᵢ| ≤ (Σ|aᵢ|ᵖ)^(1/p) · (Σ|bᵢ|^q)^(1/q)                         |
   |                                                                       |
   |  ‖ab‖₁ ≤ ‖a‖ₚ · ‖b‖_q                                               |
   +-----------------------------------------------------------------------+

   При p = q = 2 получаем КБШ.

 Неравенство Минковского (неравенство треугольника для Lᵖ):

   +-----------------------------------------------------------------------+
   |  (Σ|aᵢ+bᵢ|ᵖ)^(1/p) ≤ (Σ|aᵢ|ᵖ)^(1/p) + (Σ|bᵢ|ᵖ)^(1/p)               |
   |                                                                       |
   |  ‖a + b‖ₚ ≤ ‖a‖ₚ + ‖b‖ₚ                                             |
   +-----------------------------------------------------------------------+

   Это доказывает, что ‖·‖ₚ — действительно норма.


 Таблица: Когда какое неравенство использовать
+-------------------------------+---------------------------------------------+
| СИТУАЦИЯ                      | НЕРАВЕНСТВО                                 |
+-------------------------------+---------------------------------------------+
| Оценить скалярное произведение| КБШ: |⟨u,v⟩| ≤ ‖u‖·‖v‖                    |
+-------------------------------+---------------------------------------------+
| Оценить норму суммы           | Треугольника: ‖u+v‖ ≤ ‖u‖+‖v‖             |
+-------------------------------+---------------------------------------------+
| Сравнить сумму и произведение | AM-GM: (a+b)/2 ≥ √(ab)                     |
+-------------------------------+---------------------------------------------+
| Выпуклая функция от среднего  | Йенсен: f(Ex) ≤ E[f(x)]                    |
+-------------------------------+---------------------------------------------+
| Работа в пространствах Lᵖ    | Гёльдер, Минковский                        |
+-------------------------------+---------------------------------------------+

 Прикладной пример: неравенства в теплообмене


 Задача 1: Прямоугольник максимальной площади при фиксированном периметре (AM-GM)
-------------------------------------------------------------------------------

   Проектируем ограждение. Задан периметр P = 2(a + b) = 20.
   Какая форма прямоугольника даёт максимальную площадь S = ab?

   По AM-GM:  (a + b)/2 ≥ √(ab),  т.е.  ab ≤ ((a+b)/2)² = (P/4)²

   Максимум ab = (P/4)² достигается при a = b (квадрат).
   Для P = 20: S_max = 25, при a = b = 5.

   Это классическое изопериметрическое неравенство для прямоугольников.

   Замечание об оребрении: двойственная задача «максимизировать a+b
   при фиксированном ab» максимума НЕ имеет (a+b→∞ при a→0, b→∞).
   Именно поэтому рёбра радиаторов делают тонкими и длинными, а не
   квадратными — ограничение тут не «площадь сечения», а «прочность»
   или «технологический минимум толщины».

 Задача 2: Оценка мощности вентилятора (КБШ)
-------------------------------------------------------------------------------

   Скорость воздуха v(x,y) неоднородна по сечению воздуховода.
   Нужно оценить кинетическую энергию потока.

   E = ½ρ ∬ v³ dA = ½ρ ∬ v·v² dA

   По Коши-Буняковскому:
   (∬v·v² dA)² ≤ (∬v² dA)·(∬v⁴ dA)

   Это позволяет оценить энергию через более простые интегралы.

 Задача 3: Усреднение температуры (Йенсен)
-------------------------------------------------------------------------------

   Излучательная способность ~ T⁴ (закон Стефана-Больцмана).
   T⁴ — выпуклая функция.

   По Йенсену: (средняя T)⁴ ≤ среднее(T⁴)

   Практический смысл:
   Нельзя заменить распределение температур средней температурой
   при расчёте радиационного теплообмена — получится занижение.

   Если T₁ = 300 K, T₂ = 500 K:
   (400)⁴ = 2.56×10¹⁰ — по средней температуре
   ½(300⁴ + 500⁴) = 3.53×10¹⁰ — правильный расчёт (на 38% больше)


===============================================================================
Векторный анализ — справочник для инженера
===============================================================================

 Интуиция: что делают grad, div, rot


 ∇f (градиент) — "куда идти вверх?"
-------------------------------------------------------------------------------

   Представь карту высот (температур, давлений).
   ∇f — это стрелка, указывающая в направлении наибольшего роста f.
   Длина |∇f| = крутизна подъёма.

            высоко
              ○
             /|\
            / | \     ∇f указывает вверх по склону
           /  |  \    +---→
          /   |   \   |
         -----●-----  (точка, где стоишь)
                низко

   Пример: T(x,y) = 20 − x² − y² (холм температуры в центре)
   ∇T = (−2x, −2y) — направлен к центру (к вершине холма)

 Div F (дивергенция) — "источник или сток?"
-------------------------------------------------------------------------------

   Представь векторное поле как течение жидкости.
   div F > 0: в этой точке жидкость появляется (источник, кран)
   div F < 0: в этой точке жидкость исчезает (сток, слив)
   div F = 0: сколько втекает, столько вытекает (несжимаемый поток)

      Источник (div > 0) сток (div < 0) div = 0

            ↑                        ↓                    → → →
         ←--●--→                  →--●--←                 → → →
            ↓                        ↑                    → → →
      (стрелки расходятся)    (стрелки сходятся)    (равномерный поток)

   Пример: F = (x, y, z) (радиальное поле)
   div F = ∂x/∂x + ∂y/∂y + ∂z/∂z = 3 > 0 — источник везде.

 Rot F (ротор) — "есть ли вихрь?"
-------------------------------------------------------------------------------

   Представь маленький пропеллер, брошенный в поток.
   rot F ≠ 0: пропеллер крутится (есть вихрь)
   rot F = 0: пропеллер НЕ крутится (потенциальный поток)

      Вихрь (rot ≠ 0) потенциальный (rot = 0)

           ←                            ↑
        ↙     ↖                         ↑
       ↓   ●   ↑                        ↑
        ↘     ↗                         ●
           →                            ↑
     (закручивается)              (прямолинейный)

   Направление rot F — ось вращения (по правилу правой руки)
   Длина |rot F| — скорость вращения

   Пример: F = (−y, x, 0) (круговой поток)
   rot F = (0, 0, 2) — вихрь вдоль оси z


 Формулы в декартовых координатах (x, y, z)


   ∇f = (∂f/∂x, ∂f/∂y, ∂f/∂z)

   div F = ∂Fₓ/∂x + ∂Fᵧ/∂y + ∂F_z/∂z

   rot F = (∂F_z/∂y − ∂Fᵧ/∂z,  ∂Fₓ/∂z − ∂F_z/∂x,  ∂Fᵧ/∂x − ∂Fₓ/∂y)

   ∇²f = ∂²f/∂x² + ∂²f/∂y² + ∂²f/∂z²   (лапласиан)


 Формулы в цилиндрических координатах (r, φ, z)


   x = r cos φ,  y = r sin φ,  z = z

   ∇f = (∂f/∂r,  (1/r)∂f/∂φ,  ∂f/∂z)

   div F = (1/r)∂(rFᵣ)/∂r + (1/r)∂Fφ/∂φ + ∂F_z/∂z

   rot F = ((1/r)∂F_z/∂φ − ∂Fφ/∂z,
            ∂Fᵣ/∂z − ∂F_z/∂r,
            (1/r)[∂(rFφ)/∂r − ∂Fᵣ/∂φ])

   ∇²f = (1/r)∂/∂r(r∂f/∂r) + (1/r²)∂²f/∂φ² + ∂²f/∂z²

 Когда использовать: трубы, цилиндры, осесимметричные задачи


 Формулы в сферических координатах (r, θ, φ)


   x = r sin θ cos φ,  y = r sin θ sin φ,  z = r cos θ
   (θ — угол от оси z, φ — азимутальный угол)

   ∇f = (∂f/∂r,  (1/r)∂f/∂θ,  (1/(r sin θ))∂f/∂φ)

   div F = (1/r²)∂(r²Fᵣ)/∂r + (1/(r sin θ))∂(sin θ Fθ)/∂θ
          + (1/(r sin θ))∂Fφ/∂φ

   ∇²f = (1/r²)∂/∂r(r²∂f/∂r) + (1/(r²sin θ))∂/∂θ(sin θ ∂f/∂θ)
        + (1/(r²sin²θ))∂²f/∂φ²

 Когда использовать: шары, сферы, точечные источники


 Важнейшие тождества


   rot(∇f) = 0       ← "Градиент безвихревой"
                        (потенциальное поле не крутит)

   div(rot F) = 0   ← "Вихрь не имеет источников"
                        (линии вихря замкнуты)

   rot(rot F) = ∇(div F) − ∇²F

   div(fF) = f div F + ∇f · F

   rot(fF) = f rot F + ∇f × F


 Связь с физикой (уравнения в векторной форме)


 Теплопроводность:
   q = −λ∇T               (тепловой поток ~ минус градиент температуры)
   ∂T/∂t = a∇²T            (уравнение теплопроводности)

 Гидродинамика:
   div v = 0               (несжимаемая жидкость)
   ∂v/∂t + (v·∇)v = −∇p/ρ + ν∇²v   (Навье-Стокс)

 Электродинамика (Максвелл):
   div E = ρ/ε₀           (источник E — заряды)
   div B = 0               (нет магнитных монополей)
   rot E = −∂B/∂t         (изменение B порождает вихрь E)
   rot B = μ₀J + μ₀ε₀∂E/∂t   (ток и изменение E порождают B)



===============================================================================
                         Великое объединение
===============================================================================


   Вся математика — это один узор, рассматриваемый с разных точек зрения.

   +---------------------------------------------------------------------+
   |                                                                     |
   |                          Структура                                  |
   |                              |                                      |
   |            +-----------------+-----------------+                    |
   |            |                 |                 |                    |
   |            ▼                 ▼                 ▼                    |
   |      +----------+      +----------+      +----------+              |
   |      | Алгебра  |      |Топология |      | Анализ   |              |
   |      |          |      |          |      |          |              |
   |      |симметрии |◄----►|  форма   |◄----►|изменение |              |
   |      | G · g⁻¹  |      |  τ, π₁   |      |  d, ∫    |              |
   |      +----------+      +----------+      +----------+              |
   |            |                 |                 |                    |
   |            +-----------------+-----------------+                    |
   |                              |                                      |
   |                              ▼                                      |
   |                     +----------------+                              |
   |                     |   Категории    |                              |
   |                     |                |                              |
   |                     | Объекты        |                              |
   |                     | Морфизмы       |                              |
   |                     | Функторы       |                              |
   |                     +----------------+                              |
   |                              |                                      |
   |                              ▼                                      |
   |                    Универсальный язык                               |
   |                                                                     |
   +---------------------------------------------------------------------+

   Группа — это категория с одним объектом, где все морфизмы обратимы.
   Топология — это категория Top: объекты — топологические пространства,
              морфизмы — непрерывные отображения.
   Линейная алгебра — это категория Vect: объекты — векторные пространства,
              морфизмы — линейные отображения.
              Дополнительно несёт структуру ⊕ (прямая сумма) и ⊗ (тензорное).

   Когда вы понимаете одну структуру глубоко — вы понимаете все.


 Один язык — много диалектов


   +---------------------------------------------------------------------+
   |                                                                     |
   |    АЛГЕБРА         ТОПОЛОГИЯ       ЛИН.АЛГЕБРА      ДИФ.ГЕОМ.      |
   |       |                |                |               |          |
   |       ▼                ▼                ▼               ▼          |
   |    +-----+          +-----+          +-----+        +-----+       |
   |    |ker φ|          | π₁  |          |ker T|        |ker d|       |
   |    +--+--+          +--+--+          +--+--+        +--+--+       |
   |       |                |                |               |          |
   |       +----------------+----------------+---------------+          |
   |                        |                |                          |
   |                        ▼                ▼                          |
   |                 один и тот же паттерн:                             |
   |                                                                     |
   |                     "ЧТО УХОДИТ В НОЛЬ"                            |
   |                                                                     |
   |   Ядро — это то, что "схлопывается", "теряется", "тривиализуется"  |
   |   при применении морфизма.                                         |
   |                                                                     |
   |   dim V = dim ker + dim Im  ← ЭТО РАБОТАЕТ ВЕЗДЕ.                  |
   |                                                                     |
   +---------------------------------------------------------------------+


 Почему это важно


   Математика — не набор техник для сдачи экзамена.
   Математика — язык, на котором написана Вселенная.

   Законы Максвелла: dF = 0, d*F = J  (две строчки)
   Гравитация:       Gμν = 8πTμν      (одно уравнение)
   Квантовая механика: iℏ∂ψ/∂t = Ĥψ  (одно уравнение)

   Структуры, описанные в этом стандарте, лежат в основе:
   • Физики элементарных частиц (группы симметрий)
   • Общей теории относительности (многообразия, тензоры)
   • Квантовой механики (гильбертовы пространства, операторы)
   • Криптографии (теория чисел, эллиптические кривые)
   • Машинного обучения (линейная алгебра, оптимизация)

   Изучая математику, вы изучаете структуру самой реальности.


         "Книга природы написана на языке математики"

                                         — Галилео Галилей


         "Бог — геометр"

                                         — Платон


         "Математика — это музыка разума"

                                         — Джеймс Джозеф Сильвестр



Математика — это не набор формул. Это способ видеть мир:
находить инварианты среди изменений, структуру среди хаоса,
единство среди различий.

Пустота → границы → пространство → структура → измерение.

Этот путь продолжается.


===============================================================================
                           Что дальше
===============================================================================

Этот атлас покрывает ядро математики. За его пределами — территории,
на которых ведутся активные исследования. Карта для ориентирования:

 Алгебра:
   • Теория представлений — как группы действуют на пространствах
   • Гомологическая алгебра — цепные комплексы, производные функторы
   • Алгебраическая K-теория — обобщение понятия размерности

 Геометрия и топология:
   • Гомотопическая теория типов — новый фундамент математики
   • Теория узлов — инварианты Джонса, связь с квантовой физикой
   • Алгебраическая топология — спектральные последовательности
   • Симплектическая топология — гипотеза Арнольда, теорема Громова

 Анализ:
   • Стохастический анализ — интеграл Ито, формула Фейнмана-Каца
   • Микролокальный анализ — операторы, волновые фронты
   • Некоммутативная геометрия (Конн) — обобщение многообразий

 Математическая физика:
   • Квантовая теория поля — функциональные интегралы, ренормализация
   • Общая теория относительности — уравнения Эйнштейна, чёрные дыры
   • Теория струн — калибровочная/гравитационная двойственность

 Дискретная математика и информатика:
   • Теория сложности — P vs NP, криптография
   • Теория игр — равновесия, механизмы
   • Комбинаторика на бесконечных структурах — теория Рамсея

Каждая из этих территорий использует язык, который мы уже знаем:
группы, пространства, формы, меры, функторы. Атлас — это компас.
===============================================================================
                    MATHEMATICAL ATLAS
===============================================================================
                                                                 Eldar Akhmetov
                                                             eldar566@gmail.com
-------------------------------------------------------------------------------
   Mathematics is the language of spaces
-------------------------------------------------------------------------------

   The room in which we sit is a space.
   The set of all possible temperatures in this room is also a space.
   The set of all functions describing temperature is also a space.

   Mathematics studies spaces of different types and connections between them.

   Each branch of mathematics is a way of looking at space:

   +------------------+---------------------------------------------------+
   | BRANCH           | WHAT IT SEES IN SPACE                             |
   +------------------+---------------------------------------------------+
   | Set theory       | Only points, no structure                         |
   | Topology         | Which points are "close" (but without distances)  |
   | Metric           | Distances between points                          |
   | Linear algebra   | Addition and multiplication by numbers            |
   | Groups           | Symmetries — transformations preserving structure |
   | Manifolds        | Locally like ℝⁿ, globally curved                  |
   | Funct. analysis  | Infinite-dimensional spaces of functions          |
   +------------------+---------------------------------------------------+

   One and the same physical space can be studied by all methods.
   Different problems require different views.

   This is a map of mathematical territory. The atlas shows connections between branches.

   The branch order in the table above answers the question "what does each
   branch see". The table below ("what is added to space") uses a different
   order — the sequence of enrichment, from the poorest structure to the
   richest, following the atlas's own scaffolding.

-------------------------------------------------------------------------------
   Philosophy of this atlas
-------------------------------------------------------------------------------

   emptiness → boundaries → space → structure → measurement

  +------------------+----------------------------------------------------+
  | BRANCH           | WHAT IS ADDED TO SPACE                             |
  +------------------+----------------------------------------------------+
  | Set theory       | Nothing. Dust — points without connections.        |
  | Topology         | Fabric — notion of "nearby", connectedness, continuity. |
  | Groups           | Mobility — a catalog of allowed motions.             |
  | Metric           | Rigidity — numerical distances between points.     |
  | Linear algebra   | Flatness — can add and scale.                      |
  | Manifolds        | Curvature — locally flat, globally curved.         |
  | Analysis         | Measurement — functions as sensors on space.       |
  +------------------+----------------------------------------------------+

 In all of mathematics there is a fundamental division:

   Object — that which exists independently of the method of description.
            (vector, tensor, manifold, operator)

   Observer — one who chooses a coordinate system and writes down numbers.
              (basis, chart, reference frame)

   Invariant — that on which all observers will agree.
               (length, angle, rank, spectrum, topological type)

-------------------------------------------------------------------------------
 Notations
-------------------------------------------------------------------------------

 ∈ ∉ ⊂ ⊆      belongs, inclusion              | ∀ ∃ ⇒ ⇔    quantifiers, implication
 ∩ ∪ \        intersection, union             | ¬ ∧ ∨      not, and, or
 ℕ ℤ ℚ ℝ ℂ    number sets                     | ℍ 𝕆        quaternions, octonions
 ≅            isomorphism                     | ⊗ ⊕        tensor, direct sum
 ⟨·,·⟩ ‖·‖     inner product, norm             | V* Aᵀ A⁻¹  duality, transpose

-------------------------------------------------------------------------------
 Hierarchy of spaces — main diagram
-------------------------------------------------------------------------------

                          Set
                   (points without structure)
                             |
           +-----------------+-----------------+
           |                 |                 |
           ▼                 ▼                 ▼
      Topological        Algebraic         Partial order
        space             (group,            (lattice)
      (closeness)          ring)
           |                 |
           ▼                 ▼
       Metric            Vector space
      (distance)        (addition, scaling)
           |                 |
           +---------+-------+
                     |    ← here both branches converge
                     ▼
                 Normed
           (norm defines metric:
            d(x,y) = ‖x − y‖)
                     |
                 Banach
                (+ completeness)
                     |
               Hilbert
          (+ inner product,
           angles between vectors)

         Second branch (from Topological space):

      Topological
        space
           |
           ▼
        Manifold
      (locally ≅ ℝⁿ)
           |
      Smooth manifold
    (+ diff. structure)
           |
     Riemannian manifold
    (+ metric tensor:
     inner product on
     tangent space)

 Connection of branches:
   Normed = Metric ∩ Vector: norm uniquely
   defines metric, and both structures are compatible.
   Riemannian manifold: at each point p has inner product
   on TₚM — locally this is a Hilbert structure.

-------------------------------------------------------------------------------
Why Is Calculus Not at the Beginning?
-------------------------------------------------------------------------------

 Traditional education: school → calculus → everything else.
 This atlas is arranged differently.

 Calculus is analysis on a concrete space ℝⁿ.
 We first answer: what is a space in general?

   • Topology: what does "close" and "continuous" mean
   • Linear algebra: what does "add" and "multiply by a number" mean
   • Groups: what does "symmetry" mean
   • Manifolds: what does "locally like ℝⁿ" mean

 and then we show: here is how all this works on ℝⁿ (calculus).

-------------------------------------------------------------------------------
 One problem — many languages
-------------------------------------------------------------------------------

 Heat conduction in a rod. One physics, but:

 +-------------+--------------------------------------------------+
 | LANGUAGE    | HOW IT LOOKS                                     |
 +-------------+--------------------------------------------------+
 | Physics     | Heat flows from hot to cold                      |
 +-------------+--------------------------------------------------+
 | Calculus    | ∂T/∂t = α·∂²T/∂x²  (partial differential eq.)    |
 +-------------+--------------------------------------------------+
 | Fourier     | T(x,t) = Σ cₙe^{−αn²t}sin(nπx/L)                 |
 +-------------+--------------------------------------------------+
 | Funct.Anal. | dT/dt = AT, where A = α·d²/dx² — operator in L²  |
 +-------------+--------------------------------------------------+
 | Semigroups  | T(t) = e^{At}T₀ — one-parameter semigroup        |
 +-------------+--------------------------------------------------+
 | Probability | Brownian motion, particle diffusion              |
 +-------------+--------------------------------------------------+

 All these languages describe the same thing. The atlas shows how to move
 between them. Sometimes a problem is simpler in one language, sometimes — in another.


 Second problem — even more languages (flow in a pipe)

 Water flows through a pipe. What is the flow rate? What are the pressure losses?

 +---------------+-----------------------------------------------------+
 | ATLAS SECTION | WHAT IT GIVES FOR THIS PROBLEM                      |
 +---------------+-----------------------------------------------------+
 | Vectors       | Velocity v = (v_x, v_y, v_z) — vector field         |
 +---------------+-----------------------------------------------------+
 | Tensors       | Stresses τᵢⱼ — rank-2 tensor                        |
 |               | Relation τ and velocity: τᵢⱼ = μ(∂vᵢ/∂xⱼ + ∂vⱼ/∂xᵢ)  |
 +---------------+-----------------------------------------------------+
 | Forms         | Flow rate = ∬_S v·dS — integral of 2-form *v        |
 +---------------+-----------------------------------------------------+
 | Calculus      | Navier–Stokes equation:                             |
 |               | ρ(∂v/∂t + (v·∇)v) = −∇p + μ∇²v + ρg                 |
 +---------------+-----------------------------------------------------+
 | Funct.Anal.   | Weak solutions, Sobolev spaces W^{1,2}              |
 +---------------+-----------------------------------------------------+
 | Groups        | Symmetry of problem: axial → Poiseuille profile     |
 |               | v(r) = v_max(1 − r²/R²) — parabolic profile         |
 +---------------+-----------------------------------------------------+
 | Dimensions    | Reynolds number Re = ρvL/μ — dimensionless.         |
 |               | Re < 2300: laminar, Re > 4000: turbulence      |
 +---------------+-----------------------------------------------------+


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                              PART I: FOUNDATION
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Philosophical foundation
===============================================================================
-------------------------------------------------------------------------------
 Hierarchy of thinking: from emptiness to physics
-------------------------------------------------------------------------------

All of mathematics and our cognition of the world arise from a sequence of acts of thinking:

        ∅ Emptiness
         |
         | Act 1: Choice
         ↓
   +============================================================+
   |  A subject is endowed with the ability to act upon emptiness  |
   +============================================================+
         |
         | Act 2: Drawing boundaries
         ↓
   +============================================================+
   |  Emptiness is cut by boundaries into images                |
   +============================================================+
         |
         | Act 3: Manipulations of images
         ↓
   +============================================================+
   |  Universal to all living things                            |
   |  Do not require symbols                                    |
   |  Direct operation with patterns                            |
   +============================================================+
         |
         | Act 4: Categorization
         ↓
   +============================================================+
   |  Set theory                                                |
   |  Minimal language for describing collections of objects    |
   |  Bridge between images and communication                   |
   +============================================================+
         |
         | Act 5: Communication
         ↓
   +============================================================+
   |  Natural languages                                         |
   |  Symbolic representation of images                         |
   |  Loss of precision in transmission                         |
   +============================================================+
         |
         | Act 6: Verification of communication
         ↓
   +============================================================+
   |  Logic / Proofs                                            |
   |  Needed due to unreliability of language                   |
   |  Attempt to restore original clarity of images             |
   +============================================================+
         |
         | Act 7: Application to the world
         ↓
   +============================================================+
   |  Physics                                                   |
   |  Experimental science with high reproducibility            |
   |  Mathematics = experimental physics                        |
   +============================================================+


 Key philosophical propositions
+---+---------------------------------------------------------------------+
| 1 | The universe is emptiness, perpetually redrawing its own boundaries |
+---+---------------------------------------------------------------------+
| 2 | Existence of an object = the possibility for someone to point to it |
+---+---------------------------------------------------------------------+
| 3 | Thinking = indicating which sets objects belong to                  |
+---+---------------------------------------------------------------------+
| 4 | Proof = an explicit path along the map of set embeddings            |
+---+---------------------------------------------------------------------+
| 5 | Logic and mathematics = experimental physics with high reproducib.  |
+---+---------------------------------------------------------------------+
| 6 | To understand = to be able to represent visually                    |
+---+---------------------------------------------------------------------+
| 7 | "Object" and "space" are not properties of a thing but roles        |
|   | assigned by the observer's act of drawing a boundary                |
+---+---------------------------------------------------------------------+

 Object or space? — a question of point of view
 One and the same entity can be both object and space — depending on
 where we draw the boundary of observation.

-------------------------------------------------------------------------------
Example: donut (torus)
-------------------------------------------------------------------------------

 Donut as object (view from outside):
   We look at the torus as a whole. It is one element in the space
   of all surfaces, alongside the sphere, double torus, etc.
   We are interested in its global properties: genus, area, embedding in ℝ³.

 Donut as space (view from inside):
   We "live" on the torus. Now we are interested in points on it, paths between
   them, functions on it. For an ant crawling on the donut, the donut is
   the whole world, the space in which it moves.

 Both views are correct. The donut is the same object, but the act of drawing the boundary determines the role.

-------------------------------------------------------------------------------
 Recursion: space becomes object
-------------------------------------------------------------------------------

   Level 0:  Point p on torus T            ← p is object
   Level 1:  Torus T                       ← T is a space for p
   Level 2:  Moduli space of tori          ← T becomes object.
   Level 3:  Space of all moduli           ← previous becomes object
   ...

 At each level, what was space becomes object
 in a space of higher level. The boundary rises.

-------------------------------------------------------------------------------
 Example from physics: liquid and gas
-------------------------------------------------------------------------------

 This example is especially important because it shows how the same
 physical object requires different mathematical descriptions.

 +---------------+--------------------------------------------------+
 | APPROACH      | LIQUID/GAS IS:                                   |
 +---------------+--------------------------------------------------+
 | Thermodynamics| Object with parameters (P, V, T, S)              |
 |               | "What is the pressure of gas in the cylinder?"   |
 |               | Internal structure is unimportant — only state.  |
 +---------------+--------------------------------------------------+
 | Hydrodynamics | Space with fields v(x,t), P(x,t), ρ(x,t)         |
 | (Navier–Stokes| "How does liquid flow around a wing?"            |
 | equations)    | Each point is a place where velocity,            |
 |               | pressure, density are defined. Flow itself = trajectories. |
 +---------------+--------------------------------------------------+
 | Kinetic       | Space of molecules (phase space)                 |
 | theory        | Each molecule is object with coordinates (x, v). |
 |               | Gas = cloud of points in 6N-dimensional space.   |
 +---------------+--------------------------------------------------+

 Key observation:

   • In thermodynamics: gas = point in state space (P,V,T)
   • In hydrodynamics: gas = space itself, where fields live
   • In kinetics: gas = set of particles, each of which is an object

 Three different levels of description — three different answers to the question
 "what here is object, and what is space".

 Navier–Stokes equations, Boltzmann equation, equation of state —
 these are not competitors, but descriptions at different levels of hierarchy.

-------------------------------------------------------------------------------
 Practical criterion
-------------------------------------------------------------------------------

   Object — when we ask "what is it like?" (properties of the whole)
   Space — when we ask "what is in it?" (structure inside)

   This is not a property of the thing, but a property of the question we ask.

-------------------------------------------------------------------------------
 Philosophical conclusion
-------------------------------------------------------------------------------

 "Object" and "space" are not absolute properties, but roles.
 The role is determined by the act of drawing a boundary by the observer.

 Mathematics studies structures at all levels simultaneously —
 and provides language for transition between them.



===============================================================================
Set theory — basic concepts
===============================================================================

Set theory is a view of space as dust: there are points, and nothing
more. No structure, no connections. We do not yet know which points are "nearby",
we cannot add them, we cannot measure distances. Only the bare fact:
this point belongs to this set, or does not belong.

This is the poorest view — but this is where everything begins. All other
structures (topology, algebra, metric) will be superstructures over sets.

In terms of "object—observer": at the level of sets there is no observer yet.
No coordinate system, no way to "write" an element with numbers. There are only
the objects themselves and the question: belongs or not?

-------------------------------------------------------------------------------
 What is a set
-------------------------------------------------------------------------------
A set is a collection of objects considered as a single whole.

 Objects contained in a set are called its elements.

 Ways of defining:
   • Enumeration: A = {1, 2, 3}
   • Property description: B = {x : x > 0} = "all positive x"

 Special sets:
   ∅ = {} — empty set (contains no elements)
   U — universe (set of all considered objects)


 Two main relations
 +-----------------------------------------------------------------------+
 | x ∈ A     "x — element of set A"                                      |
 |            x is one object lying inside A                           |
 |                                                                       |
 |           +===============+                                           |
 |           |       A       |                                           |
 |           |    ●          |  ← point x inside A                       |
 |           |    x          |                                           |
 |           +===============+                                           |
 +-----------------------------------------------------------------------+

 +-----------------------------------------------------------------------+
 | B ⊆ A     "B — subset of A"                                           |
 |           Every element of B is an element of A                       |
 |           (B lies entirely inside A)                                  |
 |                                                                       |
 |           +=======================+                                   |
 |           |         A             |                                   |
 |           |    +---------+        |                                   |
 |           |    |    B    |        |  ← B entirely inside A            |
 |           |    +---------+        |                                   |
 |           +=======================+                                   |
 +-----------------------------------------------------------------------+

 Important not to confuse:
   • x ∈ A — x is an object inside A
   • B ⊆ A — B is a set, all elements of which are in A

 Example:  A = {1, 2, 3}
   • 2 ∈ A — yes (2 — element of A)
   • {2} ⊆ A — yes ({2} — subset of A)
   • {2} ∈ A — no ({2} is not an element of A, elements are numbers)
   • 2 ⊆ A — makes no sense (2 is not a set)

 Empty set:
   • ∅ ⊆ A — always true for any A
   • ∅ ∈ A — true only if ∅ is explicitly specified as an element


 Operations on sets
+--------------+--------------------------+-----------------------------------+
| OPERATION    | DEFINITION               | VENN DIAGRAM                      |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A ∪ B        | {x : x ∈ A or x ∈ B}     |     .-"""-.   .-"""-.             |
| UNION        |                          |    /███████\ /███████\            |
|              | All elements that are    |   |█████████████████████|         |
|              | in at least one          |   |█████████████████████|         |
|              |                          |    \███████/ \███████/            |
|              |                          |     `-._.-"   `-._.-"             |
|              |                          |   Everything shaded               |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A ∩ B        | {x : x ∈ A and x ∈ B}    |     .-"""-.   .-"""-.             |
| INTERSECTION |                          |    /       \ /       \            |
|              | All elements that are    |   |         █         |           |
|              | in both sets             |   |       █████       |           |
|              |                          |    \       █ /       /            |
|              |                          |     `-._.-" `-._.-"               |
|              |                          |   Only intersection               |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |                                   |
| A \ B        | {x : x ∈ A and x ∉ B}    |     .-"""-.   .-"""-.             |
| DIFFERENCE   |                          |    /███████\ /       \            |
|              | Elements of A that are   |   |█████████         |            |
|              | not in B                 |   |███████           |            |
|              |                          |    \███████/ \       /            |
|              |                          |     `-._.-"   `-._.-"             |
|              |                          |   A without intersection          |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+
|              |                          |  +===========================+    |
| Aᶜ or A'     | {x : x ∉ A}              |  |█████████████████████████  |    |
| COMPLEMENT   |                          |  |██████ .-"""-. ██████████  |    |
|              | All elements of universe,|  |█████/       \ █████████   |    |
|              | not contained in A       |  |████|    A    |█████████   |    |
|              |                          |  |█████\       /██████████   |    |
|              | Aᶜ = U \ A               |  |██████ `-._.-" ██████████  |    |
|              |                          |  +===========================+    |
|              |                          |  Everything except A              |
|              |                          |                                   |
+--------------+--------------------------+-----------------------------------+

-------------------------------------------------------------------------------
Laws of set theory
-------------------------------------------------------------------------------

 Commutativity:      A ∪ B = B ∪ A           A ∩ B = B ∩ A
 Associativity:      (A∪B)∪C = A∪(B∪C)       (A∩B)∩C = A∩(B∩C)
 Distributivity:     A∩(B∪C) = (A∩B)∪(A∩C)   A∪(B∩C) = (A∪B)∩(A∪C)

 De Morgan's laws:
   (A ∪ B)ᶜ = Aᶜ ∩ Bᶜ    "not(A or B)" = "not A and not B"
   (A ∩ B)ᶜ = Aᶜ ∪ Bᶜ    "not(A and B)" = "not A or not B"

 Properties of empty set and universe:
   A ∪ ∅ = A             A ∩ ∅ = ∅
   A ∪ U = U             A ∩ U = A
   A ∪ Aᶜ = U            A ∩ Aᶜ = ∅

-------------------------------------------------------------------------------
 Cardinality of a set
-------------------------------------------------------------------------------

 |A| — number of elements in finite set A.

 Examples:
   |∅| = 0
   |{a, b, c}| = 3
   |{1, 2, {1,2}}| = 3  (three elements: 1, 2, and the set {1,2})

 Inclusion-exclusion formula:
   |A ∪ B| = |A| + |B| − |A ∩ B|

 Cardinality of power set:
   If |A| = n, then A has 2ⁿ subsets (including ∅ and A itself)

-------------------------------------------------------------------------------
 Cartesian product
-------------------------------------------------------------------------------

 A × B = {(a, b) : a ∈ A, b ∈ B}

 The set of all ordered pairs where the first element is from A, the second from B.

 Example: {1, 2} × {a, b} = {(1,a), (1,b), (2,a), (2,b)}

 Geometrically: If A and B are segments on axes, then A × B is a rectangle.

   b +    +---------+
     |    |         |
     +    |  A × B  |
     |    |         |
   a +----+---------+----
          1         2

 |A × B| = |A| · |B|

 ℝ × ℝ = ℝ² — plane
 ℝ × ℝ × ℝ = ℝ³ — three-dimensional space

===============================================================================
Logic and proofs
===============================================================================

Logical laws are a formalization of self-evident results observed
when manipulating sets — results grounded in the behavior of physical
objects in reality. However, these results need not always hold.

-------------------------------------------------------------------------------
Statements and sets
-------------------------------------------------------------------------------

 Philosophical foundation: thinking = classification by sets

   Ultimately, all our thoughts reduce to indicating
   which sets the conceivable objects belong to.

 When we think "this table is wooden", we place the object (table)
 in the set (wooden things). When we think "5 is a prime number",
 we place 5 in the set of prime numbers.

-------------------------------------------------------------------------------
 Structure of any statement
-------------------------------------------------------------------------------

 Any statement can be decomposed into two parts:

   • x — the object being discussed
   • P — the set (property) to which the object belongs or does not

 +------------------------------------------------------------+
 | Statement  =  "object x has property P"  =  x ∈ P |
 +------------------------------------------------------------+

 Examples of decomposition:

   "Socrates is mortal"
       x = Socrates
       P = {all mortal beings}
       Statement: Socrates ∈ P

   "7 is an odd number"
       x = 7
       P = {odd numbers} = {1, 3, 5, 7, 9, ...}
       Statement: 7 ∈ P  (true)

   "This liquid is an acid"
       x = this liquid
       P = {acids}
       Statement: x ∈ P  (requires verification)

 Why this is important:
   All logic is rules for working with membership of objects in sets.
   "P and Q" = x belongs to both set P and set Q = x ∈ (P ∩ Q)
   "P or Q" = x belongs to at least one = x ∈ (P ∪ Q)
   "not P" = x does not belong to P = x ∈ Pᶜ (complement)

-------------------------------------------------------------------------------
 What is logic and why is it needed
-------------------------------------------------------------------------------

 Logic is a normative discipline: it prescribes how a person should
 think, but does not describe how a person actually thinks.

 Goals of logic:
   • To be able to prove new statements based on already known ones
   • To provide means for evaluating arguments for correctness

-------------------------------------------------------------------------------
 Basic concepts
-------------------------------------------------------------------------------

 Statement — an assertion that can be verified for truth/falsity.
   Examples:
     ✓ "2 + 2 = 4" — statement (true)
     ✓ "Moscow is the capital of France" — statement (false)
     ✗ "What time is it?" — not a statement (question)
     ✗ "x > 5" — not a statement while x is not defined (predicate)

 Formula — a statement composed of other statements through
 logical connectives (∧, ∨, ¬, →, ↔) or quantifiers (∀, ∃).

 Tautology — a formula that is true for any values of its constituents.
   Example: P ∨ ¬P (law of excluded middle) — always true.
   Tautologies are used to construct proof methods.

-------------------------------------------------------------------------------
Two Levels of Logic
-------------------------------------------------------------------------------

 Propositional (logic of propositions, zero-order logic):
   • Works with ready-made propositions P, Q, R, ...
   • Connectives: ∧, ∨, ¬, →, ↔
   • Can be verified by truth table (mechanically)

 Predicate (first-order logic):
   • Adds variables, predicates and quantifiers ∀, ∃
   • Allows talking about properties of objects and relations between them
   • Needed for mathematics (statements like "for all n")

   Variables — represent elements of some set.
   Predicates — functions returning true/false for objects.
     Example: P(x) = "x is even", Q(x,y) = "x < y"
   Quantifiers — allow making statements about sets of objects.

-------------------------------------------------------------------------------
 Two Ways to Verify Logical Consequence
-------------------------------------------------------------------------------

 Method 1: Truth table (mechanical, for propositional logic)
   • Write out all combinations of variable values
   • Calculate values of premises and conclusion
   • Check: if premises = 1, then conclusion = 1?

 Method 2: Ready-made methods (tautologies with known structure)
   • Modus Ponens, Modus Tollens, proof by contradiction, etc.
   • Don't require tables — use already proven tautologies

 Fundamental principle:

   Set theory is primary with respect to logic.

   • Set theory = rules of operations on objects of any nature
   • Logic = rules of operations on propositions of any language

   Logic is a superstructure over set theory.
   First we think in terms of membership in sets,
   and only then give definitions to logical operations.

+--------------+-------------------------+----------------------------------+
| LOGICAL      |  DEFINITION THROUGH     |  VENN DIAGRAM                    |
| OPERATION    |  SET THEORY             |  (shaded = result)               |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ∧ Q        | x ∈ (P ∩ Q)             |       .-"""-.   .-"""-.          |
| "P and Q"    | x belongs to            |      /   P   \ /   Q   \         |
|              | intersection            |     |         █         |        |
|              |                         |     |       █████       |        |
|              |                         |      \       █ /       /         |
|              |                         |       `-._.-" `-._.-"            |
|              |                         |              ↑                   |
|              |                         |     Only this (intersection)     |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ∨ Q        | x ∈ (P ∪ Q)             |       .-"""-.   .-"""-.          |
| "P or Q"     | x belongs to            |      /███████\ /███████\         |
|              | union                   |     |█████████████████████|      |
|              |                         |     |█████████████████████|      |
|              |                         |      \███████/ \███████/         |
|              |                         |       `-._.-"   `-._.-"          |
|              |                         |            ↑                     |
|              |                         |    All shaded (both circles)     |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |  +===========================+   |
| ¬P           | x ∈ Pᶜ                  |  |█████████████████████████  |   |
| "not P"      | x belongs to            |  |██████ .-"""-. ██████████  |   |
|              | complement              |  |█████/       \█████████    |   |
|              |                         |  |████|    P    |█████████   |   |
|              |                         |  |█████\       /██████████   |   |
|              |                         |  |██████ `-._.-" ██████████  |   |
|              |                         |  |█████████████████████████  |   |
|              |                         |  +===========================+   |
|              |                         |     ↑ Everything except P        |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ⇒ Q        | P ⊆ Q                   |       .------""""""------.       |
| "if P,       | Set P is contained      |      /          Q         \      |
|  then Q"     | in set Q                |     |    .---.             |     |
|              |                         |     |   |  P  |            |     |
|              | (every x from P         |     |    `---"             |     |
|              |  is necessarily in Q)   |      \                    /      |
|              |                         |       `------.-----------"       |
|              | Equivalent: ¬P ∨ Q      |     P entirely inside Q          |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| P ⇔ Q        | P = Q                   |         .-------.                |
| "P if and    | Sets coincide           |        /         \               |
| only if      |                         |       |   P = Q   |              |
| Q"           | (P ⊆ Q) ∧ (Q ⊆ P)       |        \         /               |
|              |                         |         `-------"                |
|              |                         |     One and the same circle.     |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ⊤            | U (universe)            |  +===========================+   |
| "true"       |                         |  |█████████████████████████  |   |
|              | x ∈ U  for any x        |  |█████████████████████████  |   |
|              |                         |  |█████████ U █████████████  |   |
|              |                         |  |█████████████████████████  |   |
|              |                         |  +===========================+   |
|              |                         |     Entire space                 |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ⊥            | ∅ (empty set)           |      { }                         |
| "false"      |                         |      (nothing there)             |
|              | x ∈ ∅ never             |                                  |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+

Quantifiers (for predicate logic):

+--------------+-------------------------+----------------------------------+
| QUANTIFIER   |  DEFINITION             |  VISUALIZATION                   |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ∀x ∈ A: P(x) | P(x) is true for all x  |  +===========+                   |
|              | from set A              |  | · · · · · | ← every point     |
| "for all x   |                         |  | · · · · · |   in A has        |
|  from A      | Equivalent: A ⊆ P       |  | · · · · · |   property P      |
|  P(x) holds" | (A is contained in set  |  +===========+                   |
|              |  of points with         |       A ⊆ P                      |
|              |  property P)            |                                  |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+
|              |                         |                                  |
| ∃x ∈ A: P(x) | P(x) is true for at     |  +===========+                   |
|              | least one x from A      |  |           |                   |
| "there exists|                         |  |     ●     | ← at least one    |
|  x from A    | Equivalent: A ∩ P ≠ ∅   |  |           |   point with P    |
|  with        | (intersection of A and  |  +===========+                   |
|  property P" |  set of points with P   |      A ∩ P ≠ ∅                   |
|              |  is nonempty)           |                                  |
|              |                         |                                  |
+--------------+-------------------------+----------------------------------+

 Correspondence: logic ↔ set theory
+------------------------+------------------------------+
| LOGIC                  | SET THEORY                   |
+------------------------+------------------------------+
| Proposition P          | Set {x : P(x) is true}       |
| Logical consequence P ⊢ Q | Set inclusion: P ⊆ Q      |
| Tautology              | Universal set                |
| Contradiction          | Empty set ∅                  |
+------------------------+------------------------------+

-------------------------------------------------------------------------------
Tabular method for propositional logic (zeroth order)
-------------------------------------------------------------------------------

 Allows mechanical verification of any formula without creativity
 Works only for finite number of variables, without quantifiers ∀, ∃

 Truth table of logical operations
+---+---+-------+-------+----+-------+-------+
| P | Q | P ∧ Q | P ∨ Q | ¬P | P → Q | P ↔ Q |
+---+---+-------+-------+----+-------+-------+
| 0 | 0 |   0   |   0   | 1  |   1   |   1   |
| 0 | 1 |   0   |   1   | 1  |   1   |   0   |
| 1 | 0 |   0   |   1   | 0  |   0   |   0   |
| 1 | 1 |   1   |   1   | 0  |   1   |   1   |
+---+---+-------+-------+----+-------+-------+

-------------------------------------------------------------------------------
Algorithm for classifying formulas
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Problem 1: determining the type of formula
-------------------------------------------------------------------------------

 Problem: Determine the type of formula F

 Input:  formula F with variables P₁, P₂, ..., Pₙ
 Output: tautology / contradiction / satisfiable

 Algorithm for tabular verification
+-----+--------------------------------------+
| STEP| ACTION                               |
+-----+--------------------------------------+
| 1   | Write out variables: P₁, P₂, ..., Pₙ |
| 2   | Build a table with 2ⁿ rows           |
| 3   | Compute F for each row               |
| 4   | Classify the result                  |
+-----+--------------------------------------+

 Classification
+----------------+--------------+
| RESULT         | TYPE OF FORM |
+----------------+--------------+
| All rows = 1   | Tautology    |
| All rows = 0   | Contradiction|
| Mixed          | Satisfiable  |
+----------------+--------------+

Example 1.1: Verify (P → Q) ↔ (¬P ∨ Q)

  +---+---+-------+----+--------+------------------+
  | P | Q | P → Q | ¬P | ¬P ∨ Q | (P→Q) ↔ (¬P ∨ Q) |
  +---+---+-------+----+--------+------------------+
  | 0 | 0 |   1   | 1  |   1    |       1          |
  | 0 | 1 |   1   | 1  |   1    |       1          |
  | 1 | 0 |   0   | 0  |   0    |       1          |
  | 1 | 1 |   1   | 0  |   1    |       1          |
  +---+---+-------+----+--------+------------------+

  All rows = 1  →  tautology

Example 1.2: Verify P ∧ ¬P

  +---+----+--------+
  | P | ¬P | P ∧ ¬P |
  +---+----+--------+
  | 0 | 1  |   0    |
  | 1 | 0  |   0    |
  +---+----+--------+

  All rows = 0  →  contradiction

Example 1.3: Verify de Morgan's law ¬(P ∧ Q) ↔ (¬P ∨ ¬Q)

  +---+---+-------+----------+----+----+---------+---+
  | P | Q | P ∧ Q | ¬(P ∧ Q) | ¬P | ¬Q | ¬P ∨ ¬Q | ↔ |
  +---+---+-------+----------+----+----+---------+---+
  | 0 | 0 |   0   |     1    | 1  | 1  |    1    | 1 |
  | 0 | 1 |   0   |     1    | 1  | 0  |    1    | 1 |
  | 1 | 0 |   0   |     1    | 0  | 1  |    1    | 1 |
  | 1 | 1 |   1   |     0    | 0  | 0  |    0    | 1 |
  +---+---+-------+----------+----+----+---------+---+

  All rows = 1  →  tautology

-------------------------------------------------------------------------------
Problem 2: checking entailment
-------------------------------------------------------------------------------

Problem: determine whether B follows from premises A₁, A₂, ..., Aₖ

Notation: A₁, A₂, ..., Aₖ ⊢ B

Key point: comma between premises means ∧ (logical AND).

  A₁, A₂, ..., Aₖ ⊢ B   means   (A₁ ∧ A₂ ∧ ... ∧ Aₖ) → B

Algorithm:

  Step 1.  Write out all variables from all formulas A₁, ..., Aₖ, B
  Step 2.  Build a table with 2ⁿ rows
  Step 3.  For each row compute A₁, A₂, ..., Aₖ, their conjunction, and B
  Step 4.  Search for counterexample: a row where (A₁ ∧ ... ∧ Aₖ) = 1, but B = 0

          • Counterexample found     →  entailment is false
          • No counterexample        →  entailment is true

Example 2.1: Verify modus ponens  (P → Q) ∧ P ⊢ Q

  Denote: A₁ = (P → Q),  A₂ = P,  B = Q

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Verification   |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  | 0 | 1 | 1  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 0 | 0  | 1  |    0    | 0 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  +---+---+----+----+---------+---+----------------+

  The only row where A₁∧A₂=1: P=1, Q=1.
  In it B=1. No counterexample  →  entailment is true.

Example 2.2: Verify modus tollens  (P → Q) ∧ ¬Q ⊢ ¬P

  Denote: A₁ = (P → Q),  A₂ = ¬Q,  B = ¬P

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Verification   |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  | 0 | 1 | 1  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 0 | 0  | 1  |    0    | 0 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  +---+---+----+----+---------+---+----------------+

  The only row where A₁∧A₂=1: P=0, Q=0.
  In it B=1. No counterexample  →  entailment is true.

Example 2.3: Verify invalid entailment  (P → Q) ∧ Q ⊢ P

  Denote: A₁ = (P → Q),  A₂ = Q,  B = P

  +---+---+----+----+---------+---+----------------+
  | P | Q | A₁ | A₂ | A₁ ∧ A₂ | B | Verification   |
  +---+---+----+----+---------+---+----------------+
  | 0 | 0 | 1  | 0  |    0    | 0 | A₁∧A₂=0        |
  | 0 | 1 | 1  | 1  |    1    | 0 | A₁∧A₂=1, B=0 ✗ |
  | 1 | 0 | 0  | 0  |    0    | 1 | A₁∧A₂=0        |
  | 1 | 1 | 1  | 1  |    1    | 1 | A₁∧A₂=1, B=1 ✓ |
  +---+---+----+----+---------+---+----------------+

  Row P=0, Q=1: A₁∧A₂=1, but B=0.
  Counterexample found  →  entailment is false.
  (This is the fallacy "affirming the consequent")

-------------------------------------------------------------------------------
Limitations of the method
-------------------------------------------------------------------------------

  +--------------------------------------------------------------+
  | • Works only for propositional logic (zeroth-order)          |
  | • Does not work for predicate logic (with ∀, ∃)              |
  | • With n variables requires 2ⁿ rows (exponential growth)     |
  | • For n = 10 already 1024 rows, for n = 20 — over a million  |
  +--------------------------------------------------------------+

Connection with set theory:

  Truth table — enumeration of all points in the space {0,1}ⁿ.
  Formula defines a subset (where it is true).

  Tautology = entire space.
  Contradiction = empty set.
  Entailment (A₁ ∧ ... ∧ Aₖ) ⊢ B holds ⟺ set (A₁ ∧ ... ∧ Aₖ) ⊆ set B.


-------------------------------------------------------------------------------
Proof methods — with concrete problem examples
-------------------------------------------------------------------------------

 What does "prove" mean in mathematics?

 Intuitively:
   To prove = to convince any reasonable person, following the rules
   that they accepted in advance.

 Formally:
   A proof is a finite sequence of statements, where each:
   • is either an axiom (accepted without proof)
   • or follows from previous ones by rules of logic
   The last statement = what we are proving.

-------------------------------------------------------------------------------
 What a proof does not do:
-------------------------------------------------------------------------------

   ✗ does not explain "why this is true" (intuition does this)
   ✗ does not show how it was discovered (this is history)
   ✗ does not guarantee understanding (one can verify a proof without understanding)

   A proof is verification, not explanation.
   A good proof explains, a bad one — only convinces.

-------------------------------------------------------------------------------
 Types of statements and what is needed for proof
-------------------------------------------------------------------------------

 +--------------+---------------------+-----------------------+
 | STATEMENT    | HOW TO PROVE        | HOW TO REFUTE         |
 +--------------+---------------------+-----------------------+
 | ∀x: P(x)     | Prove for           | one counterexample    |
 | "for all"    | arbitrary x         |                       |
 +--------------+---------------------+-----------------------+
 | ∃x: P(x)     | one example         | Prove for all         |
 | "exists"     |                     | that P(x) is false    |
 +--------------+---------------------+-----------------------+
 | ∀x∃y: P(x,y) | For arbitrary x     | Find x for which      |
 | "for all     | exhibit such a y    | there is no such y    |
 | exists"      |                     |                       |
 +--------------+---------------------+-----------------------+
 | ∃x∀y: P(x,y) | Exhibit such an x   | For any x find y      |
 | "exists      | holding for         | violating P           |
 | for all"     | all y               |                       |
 +--------------+---------------------+-----------------------+

 Important: Examples never prove ∀-statements.
        Even a million examples do not prove that "for all".
        But one counterexample refutes.

-------------------------------------------------------------------------------
 Constructive vs non-constructive proofs
-------------------------------------------------------------------------------

 Constructive: Presents the object explicitly.
   Example: "There exists an irrational number" — here is √2, and here is the proof.

 Non-constructive: Proves existence without showing the object.
   Example: "There exist irrational a, b such that aᵇ is rational."
           Consider √2^√2.
           If rational — done: take a = b = √2.
           If irrational — take a = √2^√2, b = √2;
           then aᵇ = (√2^√2)^√2 = √2² = 2 — rational.
           We don't know which of the two cases holds, but one of them definitely does.

-------------------------------------------------------------------------------
 How to read proofs (practical advice)
-------------------------------------------------------------------------------

 1. Write separately: what is given, what we are proving
 2. At each step ask: "where does this follow from?"
 3. Look for the key idea — usually one trick, the rest is technique
 4. Try to break the proof — where does it use the conditions?
 5. After reading — retell in your own words

 If you cannot explain in simple words — you have not understood.

Proof = explicit description of a path along the map of inclusions and intersections
of sets, leading to a statement about membership of an object in a set.

+------------------+----------------------+----------------------------------+
|  METHOD          |  STRUCTURE           |  GEOMETRIC INTERPRETATION        |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| Modus ponens     |  1. P → Q (true)     |  If object in P, and P contained |
| (inference rule) |  2. P (true)         |  in Q, then object in Q          |
|                  |  ---------------     |                                  |
|                  |  ∴ Q (true)          |     +-------------+              |
|                  |                      |     |      Q      |              |
|                  | "If P, then Q.       |     |  +-----+    |              |
|                  |  P is true.          |     |  |  P ●|    |              |
|                  |  Therefore, Q"       |     |  +-----+    |              |
|                  |                      |     +-------------+              |
|                  |                      |     object ● ∈ P ⊂ Q             |
|                  |                      |                                  |
| Example problem: | Prove: if n          | Solution:                        |
|                  | is divisible by 6,   | 1. 6 | n ⇒ n = 6k                |
|                  | then n is divisible  | 2. n = 6k = 3·(2k)               |
|                  | by 3                 | 3. ⇒ 3 | n  ✓                    |
|                  |                      | {n : 6|n} ⊂ {n : 3|n}            |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| Modus tollens    |  1. P → Q            |  If object not in Q, and P ⊂ Q,  |
| (denying the     |  2. ¬Q               |  then object not in P            |
|  consequent)     |  ---------------     |                                  |
|                  |  ∴ ¬P                |     +-------------+              |
|                  |                      |     |      Q      |              |
|                  | "If P, then Q.       |     |  +-----+    |              |
|                  |  Q is false.         |     |  |  P  |    |   ● not in Q |
|                  |  Therefore, P        |     |  +-----+    |              |
|                  |  is false"           |     +-------------+              |
|                  |                      |     ⇒ ● cannot be in P           |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| REDUCTIO AD      |  Want to prove Q     |  Assume ¬Q, arrive at            |
| ABSURDUM         |                      |  contradiction                   |
| (proof by        |  1. Assume ¬Q        |                                  |
| contradiction)   |  2. Derive           |  +----------+                    |
|                  |     contradiction P∧¬P|  |Universe  |                    |
|                  |  ---------------     |  |  +--+    |                    |
|                  |  ∴ Q is true         |  |  |Q | ¬Q | ← empty.           |
|                  |                      |  |  +--+    |                    |
|                  | "Suppose the         |  +----------+                    |
|                  |  opposite.           |  If ¬Q empty, then all in Q      |
|                  |  Get absurdity.      |                                  |
|                  |  Therefore, original |                                  |
|                  |  is true"            |                                  |
|                  |                      |                                  |
| Example problem: | Prove √2 ∉ ℚ         | Solution:                        |
|                  |                      | 1. Assume √2 ∈ ℚ                 |
|                  |                      | 2. √2 = p/q (in lowest terms)    |
|                  |                      | 3. 2q² = p² ⇒ p even (=2k)       |
|                  |                      | 4. 2q² = 4k² ⇒ q² = 2k²          |
|                  |                      | 5. ⇒ q even                      |
|                  |                      | 6. But p,q both even —           |
|                  |                      |    contradiction                 |
|                  |                      | 7. ⇒ √2 ∉ ℚ  ✓                   |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| direct           |  Given: premises     |  Direct path from premises to    |
| proof            |  P₁, P₂, ..., Pₙ     |  conclusion through inclusions   |
|                  |                      |                                  |
|                  |  Goal: Q             |  P₁ → P₂ → ... → Pₙ → Q          |
|                  |                      |                                  |
|                  |  Build chain:        |  Each arrow = inclusion          |
|                  |  P₁ ⇒ ... ⇒ Pₙ ⇒ Q   |  of sets or logical              |
|                  |                      |  entailment                      |
|                  |                      |                                  |
| Example problem: | Prove: n even        | Solution:                        |
|                  | ⇒ n² even            | 1. n even ⇒ n = 2k               |
|                  |                      | 2. n² = (2k)² = 4k²              |
|                  |                      | 3. = 2·(2k²) = 2m, m=2k²         |
|                  |                      | 4. ⇒ n² even  ✓                  |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| mathematical     |  Base: P(0)          |  Dominoes fall:                  |
| INDUCTION        |  Step: P(n) ⇒ P(n+1) |                                  |
|                  |  -------------       |  ●→●→●→●→●→...                   |
|                  |  ∴ ∀n: P(n)          |  0  1  2  3  4                   |
|                  |                      |                                  |
|                  | "True for 0.         |  If pushed 0, and each           |
|                  |  If true for n,      |  pushes the next, then all       |
|                  |  then for n+1.       |  will fall                       |
|                  |  Therefore, true for |                                  |
|                  |  all natural numbers"|                                  |
|                  |                      |                                  |
| Example problem: | Prove                | Solution:                        |
|                  | 1+2+...+n=n(n+1)/2   | Base: n=1: 1=1·2/2=1  ✓          |
|                  |                      | Step: Assume true for n.         |
|                  |                      | For n+1:                         |
|                  |                      | 1+...+n+(n+1) =                  |
|                  |                      | = n(n+1)/2 + (n+1)               |
|                  |                      | = (n+1)(n/2+1)                   |
|                  |                      | = (n+1)(n+2)/2  ✓                |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| case analysis    |  P ∨ Q               |  Universe = P ∪ Q                |
|                  |  P ⇒ R               |                                  |
|                  |  Q ⇒ R               |  +--------------+                |
|                  |  -------------       |  |   R          |                |
|                  |  ∴ R                 |  | +---+  +---+ |                |
|                  |                      |  | | P |  | Q | |                |
|                  | "Either P or Q.      |  | +---+  +---+ |                |
|                  |  in both cases       |  +--------------+                |
|                  |  R follows"          |  Both cases lead to R            |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| contraposition   |  P → Q               |  P ⊂ Q equivalent to             |
|                  |  =========           |  Qᶜ ⊂ Pᶜ                         |
|                  |  ¬Q → ¬P             |                                  |
|                  |                      |  +------------+                  |
|                  | "If Q follows from P,|  |  Q    Qᶜ   |                  |
|                  |  then NOT-P follows  |  |+--+  +--+  |                  |
|                  |  from NOT-Q"         |  ||P |  |Pᶜ|  |                  |
|                  |                      |  |+--+  +--+  |                  |
|                  | Equivalent           |  +------------+                  |
|                  | formulations.        |                                  |
|                  |                      |                                  |
| Example problem: | Prove: n² odd        | Solution (contraposition):       |
|                  | ⇒ n odd              | Prove: n even ⇒ n² even          |
|                  |                      | (we already know this)           |
|                  |                      | By contraposition:               |
|                  |                      | n² odd ⇒ n odd  ✓                |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+

Key idea:

  All proof methods reduce to demonstrating that some
  object is located in sets nested within each other.

  To prove Q = to show a path of inclusions leading to Q.


 Geometric interpretation of proof methods

 Each proof method has a simple visualization through nestedness
 of sets on a Venn diagram. This makes logic intuitively understandable.

-------------------------------------------------------------------------------
Modus ponens: "If P, then Q. P is true. Therefore, Q is true."
-------------------------------------------------------------------------------

   Formula: P → Q,  P  ⊢  Q

   Geometrically:
   If P ⊂ Q (circle P completely inside circle Q)
   and object x ∈ P
   then x ∈ Q (obviously)

       +================================+
       |            Q                   |
       |      +------------+            |
       |      |     P      |            |
       |      |   ● x      |            |  ← x in P, but P inside Q
       |      +------------+            |    ⇒ x automatically in Q
       +================================+

   Example: "All students have a student ID."
            "Masha is a student."
            ⇒ "Masha has a student ID."

-------------------------------------------------------------------------------
 Reductio ad absurdum: "Assume the opposite. We get absurdity."
-------------------------------------------------------------------------------

   Formula: Assume ¬Q. Derive contradiction. Therefore, Q.

   Geometrically:
   Assume P ⊂ Q (P inside Q).
   Suppose: object x belongs to P and simultaneously does not belong to Q.
   But this is a contradiction. (x cannot be in P and outside Q, if P ⊂ Q)
   Therefore, if x ∈ P, then x ∈ Q.

       +================================+
       |            Q          ████████ | ← Qᶜ (complement)
       |      +------------+   █ ¬Q  ██ |
       |      |     P      |   ████████ |
       |      |            |   ████████ |
       |      +------------+   ████████ |
       +================================+

   Attempt to place a point simultaneously in P and in Qᶜ — contradiction.
   These regions do not intersect.

   Example: "Prove √2 ∉ ℚ"
            Assume √2 ∈ ℚ ⇒ we get contradiction ⇒ √2 ∉ ℚ

-------------------------------------------------------------------------------
 Philosophical remark
-------------------------------------------------------------------------------

 Proofs are not the pinnacle of mathematics, but a crutch to compensate for
 losses during linguistic transmission. In an ideal world of telepaths, where one can
 directly "show" the geometry of inclusions, formal proofs
 would not be needed.

 Formalization of mathematics is not rigor in itself, but a forced
 measure during the transition to linguistic description. Mathematics itself exists at
 the pre-linguistic level of manipulations with images and inclusions of sets.


-------------------------------------------------------------------------------
Unity: logic = sets = order
-------------------------------------------------------------------------------

Preliminarily: What is order?

  Partial order ≤ on set X is a relation that:
    • Reflexive: x ≤ x for any x
    • Antisymmetric: x ≤ y and y ≤ x ⇒ x = y
    • Transitive: x ≤ y and y ≤ z ⇒ x ≤ z

  Examples: ⊆ on sets, ≤ on numbers, "divides" on naturals.

 Logic, sets and order are three languages for describing one structure.

 This is not an analogy. This is an identity. Stone's theorem (1936) proves:
 Boolean algebra ≅ algebra of sets ≅ propositional logic


 One object — three languages
+------------------+----------------------+--------------------+
| LOGIC            | SETS                 | ORDER/LATTICE      |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| Statement P      | Set A                | Element a          |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ∧ Q  (AND)     | A ∩ B  (intersection)| a ∧ b  (meet, inf) |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ∨ Q  (or)      | A ∪ B  (union)       | a ∨ b  (join, sup) |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| ¬P  (NOT)        | Aᶜ  (complement)     | ¬a  (complement)   |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| P ⇒ Q  (implies) | A ⊆ B  (inclusion)   | a ≤ b  (order)     |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| truth ⊤          | Universe U           | Maximum 1          |
|                  |                      |                    |
+------------------+----------------------+--------------------+
|                  |                      |                    |
| false ⊥          | Empty ∅              | Minimum 0          |
|                  |                      |                    |
+------------------+----------------------+--------------------+

 Laws — the same in three languages


 De Morgan:     ¬(P∧Q) = ¬P∨¬Q     |  (A∩B)ᶜ = Aᶜ∪Bᶜ    |  analogously
                ¬(P∨Q) = ¬P∧¬Q     |  (A∪B)ᶜ = Aᶜ∩Bᶜ    |

 Distributivity:  P∧(Q∨R)=(P∧Q)∨(P∧R)|  A∩(B∪C)=(A∩B)∪(A∩C)|
                  P∨(Q∧R)=(P∨Q)∧(P∨R)|  A∪(B∩C)=(A∪B)∩(A∪C)|

 Excluded middle: P ∨ ¬P = ⊤       |  A ∪ Aᶜ = U        |  a ∨ ¬a = 1
 Contradiction:   P ∧ ¬P = ⊥       |  A ∩ Aᶜ = ∅        |  a ∧ ¬a = 0

 These are not "similar laws" — this is one law, written in three ways.


 Lattice and Boolean algebra


 Lattice = partial order, where any two elements have:
   a ∨ b = sup{a, b}  (least upper bound, join)
   a ∧ b = inf{a, b}  (greatest lower bound, meet)

 Boolean algebra = lattice with complement:
   For each a there exists ¬a:  a ∨ ¬a = 1  and  a ∧ ¬a = 0

+--------------------+-------------+-----------+
| Example            | ∨ (join)    | ∧ (meet)  |
+--------------------+-------------+-----------+
| Subsets 2^X        | A ∪ B       | A ∩ B     |
| Divisors of n      | LCM(a, b)   | GCD(a, b) |
| Statements         | P ∨ Q (or)  | P ∧ Q (AND)|
| Open sets          | U₁ ∪ U₂     | U₁ ∩ U₂   |
+--------------------+-------------+-----------+

 Important: Divisors of 12 — lattice, but not Boolean. (no complement for 2, 3, 4, 6)
            Subsets — Boolean algebra (complement Aᶜ always exists)

 Intuitionistic logic and topology

 The table above is true for classical logic (Boolean algebra).
 But there is intuitionistic logic, where ¬¬P ≠ P and P ∨ ¬P is not always true.

 +---------------------+--------------------------------+
 | CLASSICAL           | INTUITIONISTIC                 |
 +---------------------+--------------------------------+
 | Boolean algebra     | Heyting algebra                |
 | Subsets             | Open sets of topology          |
 | P ∨ ¬P = ⊤ (always) | P ∨ ¬P ≠ ⊤ (not always)        |
 | ¬¬P = P             | ¬¬P ≠ P                        |
 | A ∪ Aᶜ = U          | U ∪ Int(Uᶜ) ≠ X in general     |
 +---------------------+--------------------------------+

 Why open sets:
   • ¬U = Int(Uᶜ) = interior of complement (not the complement itself)
   • U ∪ ¬U = U ∪ Int(Uᶜ) may not equal X
   • Example: U = (0,1) on ℝ. Then ¬U = Int((−∞,0]∪[1,∞)) = (−∞,0)∪(1,∞)
     and U ∪ ¬U = ℝ \ {0,1} ≠ ℝ.

 Connection with constructivism:
   In intuitionistic logic "exists" = "can be constructed".
   The law of excluded middle (P ∨ ¬P) is not valid, because
   from impossibility to construct a counterexample does not follow the existence of an example.


===============================================================================
Axiomatic Method — The Rules of the Game in Mathematics
===============================================================================

-------------------------------------------------------------------------------
 What is an Axiom
-------------------------------------------------------------------------------

 An axiom is a statement that is accepted without proof.

 Why without proof? Because any proof relies on
 some preceding statements. If we require proving everything, we get
 an infinite chain or a closed circle. A point of support is needed.

Analogy: Rules of a Board Game

   • You don't "prove" that in chess a knight moves in an L-shape
   • This is a rule of the game — we accept it in order to play
   • Axioms = rules of the mathematical game
   • Theorems = everything that can be derived from the rules

 Important: Axioms are not "true" or "false" in an absolute sense.
 They are agreements. Different sets of axioms give different mathematics.

-------------------------------------------------------------------------------
 Why the Axiomatic Method is Needed
-------------------------------------------------------------------------------

 History: Until the end of the 19th century mathematicians worked "intuitively".
 Then paradoxes were discovered — logical contradictions.

 Russell's Paradox (1901):

   Let R = {x : x ∉ x} — "the set of all sets not containing themselves"

   Question: R ∈ R or R ∉ R?

   • If R ∈ R, then by definition of R we must have R ∉ R - contradiction
   • If R ∉ R, then by definition of R we must have R ∈ R - contradiction

 Conclusion: One cannot simply create "the set of everything satisfying
 a condition". Restrictions are needed — axioms defining which sets
 are "legal".

 Solution: The ZFC axiom system (Zermelo–Fraenkel with axiom of choice)


===============================================================================
ZFC Axioms — Foundation of Modern Mathematics
===============================================================================

ZFC = Zermelo–Fraenkel + Choice (Zermelo–Fraenkel + Choice)

This is a system of ~9 axioms on which almost all of modern
mathematics is built.

 Notation

   ∀x — "for all x" (universal quantifier)
   ∃x — "there exists x" (existential quantifier)
   →  — "implies", "entails"
   ↔  — "equivalent", "if and only if"
   ∧  — "and" (conjunction)
   ∨  — "or" (disjunction)

 ZFC Axioms — Summary Table
+---------------+----------------------------+--------------------------------+
| AXIOM         | FORMULA                    | WHAT IT GIVES                  |
+---------------+----------------------------+--------------------------------+
| 1. Extensional| (∀x: x∈A ↔ x∈B) → A=B      | Set = its elements.            |
| Extensionality|                            | {1,2,3} = {3,1,2}              |
+---------------+----------------------------+--------------------------------+
| 2. Empty Set  | ∃∅: ∀x: x∉∅               | "Zero" of set theory.          |
| Empty Set     |                            | Starting point for constructs  |
+---------------+----------------------------+--------------------------------+
| 3. Pairing    | ∀a∀b ∃P: x∈P ↔ (x=a∨x=b)   | Can create {a,b}.              |
| Pairing       |                            | Consequence: {a}={a,a}         |
+---------------+----------------------------+--------------------------------+
| 4. Union      | ∀A ∃U: x∈U ↔ ∃B(B∈A∧x∈B)   | Can merge sets.                |
| Union         |                            | ∪{{1,2},{3}} = {1,2,3}         |
+---------------+----------------------------+--------------------------------+
| 5. Power Set  | ∀A ∃P: B∈P ↔ B⊆A           | Set of all subsets.            |
| Power Set     |                            | 𝒫({1,2}) = {∅,{1},{2},{1,2}}   |
|               |                            | |𝒫(A)| = 2^|A|                 |
+---------------+----------------------------+--------------------------------+
| 6. Infinity   | ∃I: ∅∈I ∧ (x∈I → x∪{x}∈I)  | Infinite sets exist.           |
| Infinity      |                            | Minimal such I = ℕ             |
+---------------+----------------------------+--------------------------------+
| 7. Separation | ∀A ∃B: x∈B ↔ (x∈A ∧ φ(x))  | {x∈A: φ(x)} — legal.           |
| Separation    |                            | {x: φ(x)} — illegal.           |
|               |                            | (avoiding Russell's paradox)   |
+---------------+----------------------------+--------------------------------+
| 8. Replacement| Image of set under         | {f(a): a∈A} — a set.           |
| Replacement   | function — a set           | Needed for large cardinals     |
+---------------+----------------------------+--------------------------------+
| 9. Foundation | A≠∅ → ∃x∈A: x∩A=∅         | No x∈x, no cycles a∈b∈a        |
| Foundation    |                            | Everything built "from below"  |
|               |                            | from ∅                         |
+---------------+----------------------------+--------------------------------+

 Important subtlety: axiom schemas


 Axioms 7 (Separation) and 8 (Replacement) are not single axioms, but schemas:
 for each formula φ(x) we get its own axiom.

   • "Separation with φ(x) = (x is even)" — one axiom
   • "Separation with φ(x) = (x is prime)" — another axiom
   • ...and so on for each possible formula

 Therefore ZFC formally contains infinitely many axioms.
 This is not a problem — we can still verify any concrete
 proof in finite time.

-------------------------------------------------------------------------------
Russell's Paradox and how ZFC resolves it
-------------------------------------------------------------------------------

 Paradox: Let R = {x : x ∉ x}. Then R ∈ R ⟺ R ∉ R. Contradiction.

 Solution in ZFC:
   The Axiom of Separation forbids constructing {x : φ(x)}.
   Only {x ∈ A : φ(x)} is allowed — a subset of an already existing A.

   To construct R = {x : x ∉ x}, one would first need to have a set A
   containing R. But such A does not exist (by Regularity x ∉ x always).

 Conclusion: ZFC is "freedom with responsibility". One cannot create
 sets "out of thin air" — only from already constructed ones.


 Philosophical meaning of axioms
+---------------+----------------------------------------------------------+
| AXIOM         | PHILOSOPHICAL INTERPRETATION                             |
+---------------+----------------------------------------------------------+
| Empty set     | Formalization of "emptiness" — we postulate its existence|
+---------------+----------------------------------------------------------+
| Infinity      | Infinity is not obvious, but a choice to play this kind  |
|               | of mathematics. One can build mathematics without it     |
+---------------+----------------------------------------------------------+
| Separation    | Restriction on "naive" set creation — lesson from        |
|               | Russell's paradox. Freedom with responsibility           |
+---------------+----------------------------------------------------------+
| Regularity    | Everything is built hierarchically from ∅. No "hanging   |
|               | in the air" or self-referential constructions            |
+---------------+----------------------------------------------------------+

-------------------------------------------------------------------------------
 Visualization: cumulative hierarchy — "tower of sets"
-------------------------------------------------------------------------------

 The ZFC axioms generate all of mathematics from nothing (the empty set).
 This happens level by level — the cumulative hierarchy V_α.


   V_ω+1  | 𝒫(V_ω) — power set of the infinite set
          | Includes ℝ, all functions ℕ → ℕ, ...
          | This is already uncountable.
   -------+--------------------------------------------------------------
          |
   V_ω    | V₀ ∪ V₁ ∪ V₂ ∪ ... — first infinite level
          | Includes ℕ, all finite sets, all finite structures
   -------+--------------------------------------------------------------
    ⋮      | ⋮
   V₃     | 𝒫(V₂) = all subsets of V₂
          | |V₃| = 2² = 4 elements
   -------+--------------------------------------------------------------
   V₂     | 𝒫(V₁) = {∅, {∅}}
          | 2 elements — can be identified with {0, 1}
   -------+--------------------------------------------------------------
   V₁     | 𝒫(V₀) = 𝒫(∅) = {∅}
          | 1 element — this is "1" in the construction of natural numbers
   -------+--------------------------------------------------------------
   V₀     | ∅ — empty set, beginning of everything
          | 0 elements — this is "0"
   =======╧==============================================================

 Size growth:

   |V₀| = 0
   |V₁| = 2⁰ = 1
   |V₂| = 2¹ = 2
   |V₃| = 2² = 4
   |V₄| = 2⁴ = 16
   |V₅| = 2¹⁶ = 65536
   |V₆| = 2^65536 ≈ 10^19728 — already inconceivable.
   ...
   |V_ω| = ℵ₀ (countable infinity)
   |V_{ω+1}| = 2^{ℵ₀} = |ℝ| (continuum)

 Conclusion: All of mathematics "grows" from ∅ by applying one operation 𝒫.


 Where familiar objects live

 +----------------------+--------------------------------+
 | OBJECT               | FIRST LEVEL WHERE IT APPEARS   |
 +----------------------+--------------------------------+
 | ∅ = 0                | V₀                             |
 | 1 = {∅}              | V₁                             |
 | 2 = {∅, {∅}}         | V₂                             |
 | n (any finite)       | V_n                            |
 | ℕ (as a set)         | V_ω                            |
 | Function f: ℕ → ℕ    | V_{ω+1} (as subset of ℕ×ℕ)     |
 | ℝ (as Dedek. set)    | V_{ω+1}                        |
 | Function f: ℝ → ℝ    | V_{ω+2}                        |
 | Space C[0,1]         | V_{ω+2}                        |
 +----------------------+--------------------------------+

 Almost all "working" mathematics lives in V_{ω+ω} — relatively low.
 Large cardinals (inaccessible, measurable, ...) require very high V_α.


===============================================================================
Axiom of choice — special status
===============================================================================
-------------------------------------------------------------------------------
 Axiom of choice (AC)
-------------------------------------------------------------------------------

 Formula: ∀𝒜: (∀A∈𝒜: A≠∅) → ∃f: ∀A∈𝒜: f(A)∈A

 Meaning: For any family of nonempty sets there exists a function
          choosing one element from each.

 The word "simultaneously" is psychological, not mathematical.
    Mathematically: a choice function f exists.
    There is no "process of choosing" — the function simply exists (or doesn't).

        +---+  +---+  +---+  +---+
        | ● |  | ▲ |  | ■ |  | ◆ |  ...  infinitely many boxes
        | ○ |  | △ |  | □ |  | ◇ |
        +---+  +---+  +---+  +---+
          ↓      ↓      ↓      ↓
          ●      ▲      ■      ◆    ← choice function f exists

 Without AC in some models of ZF: the product of nonempty sets is empty.
 This is not "we cannot choose", but "a choice literally does not exist".


 Why the axiom of choice is non-obvious
+------------------------+------------------------------------------------+
| CASE                   | SITUATION                                      |
+------------------------+------------------------------------------------+
| Finite number of boxes | Obvious — just enumerate (AC not needed)       |
+------------------------+------------------------------------------------+
| Countable number       | Axiom of countable choice (AC_ω) suffices      |
|                        | — weaker than full AC                          |
+------------------------+------------------------------------------------+
| Uncountable number     | How to choose? No algorithm. AC asserts that   |
|                        | the function exists, even without explicit     |
|                        | construction                                   |
+------------------------+------------------------------------------------+

-------------------------------------------------------------------------------
What follows from the axiom of choice
-------------------------------------------------------------------------------

 Good consequences:

   • Any vector space has a basis
   • Any ideal is contained in a maximal ideal
   • Tychonoff's theorem: product of compact spaces is compact
   • Hahn–Banach theorem: extension of linear functionals
   • Any two cardinals are comparable: |A| ≤ |B| or |B| ≤ |A|

 Paradoxical consequences:

   • Banach–Tarski paradox:
     A ball can be cut into 5 pieces and assembled into two identical balls.
     (pieces are not "ordinary" pieces, but pathological sets of points)
   • There exist non-measurable sets (Lebesgue)

 Status:
   The axiom of choice is independent of ZF — it can neither be proved nor refuted.
   One can work with it (ZFC) or without it (ZF). Most mathematicians
   accept AC.

-------------------------------------------------------------------------------
 "Choice" in philosophy vs "choice" in the axiom
-------------------------------------------------------------------------------

 In the philosophical foundation "choice" = the subject's ability to distinguish,
 draw boundaries, extract objects from emptiness. This is ontological choice.

 In the axiom of choice "choice" = existence of a function assigning an element
 to each set. This is a technical possibility.

 Connection:
   Philosophical choice is primary (without it there is no mathematics at all).
   Axiom of choice is a specific rule of the game, which can be accepted or not.

 Difference:
   Philosophical choice: "I can extract an object"
   Axiom of choice: "For any (even uncountable) family there exists
                    a method of simultaneous choice"

-------------------------------------------------------------------------------
 Why all this is needed
-------------------------------------------------------------------------------

 ZFC axioms are not "truths about the world".
 They are rules of the game which:

   1. Are strong enough to construct all known mathematics
   2. Are restricted enough to avoid paradoxes
   3. Are (as far as is known) consistent
   4. Are incomplete (Gödel's theorem, 1931): there exist true statements
      about natural numbers that are unprovable in ZFC

 Incompleteness is not a bug, but a fundamental property of any sufficiently rich
 formal system. ZFC cannot prove its own consistency from within.

 When further on we write "there exists a set X" or "let us choose an element from Y",
 we rely on these axioms. Mathematics is the consequences of these rules.

 Now, having the foundation, we can construct numbers.


-------------------------------------------------------------------------------
Gödel's theorems — boundaries of formal systems
-------------------------------------------------------------------------------

 Context:

 Gödel's theorems (1931) are not abstract logic. They are fundamental
 results about what mathematics can and cannot do:

   • Why some problems are fundamentally unsolvable
   • Why a machine cannot completely replace a mathematician
   • Why "truth" and "provability" are different things
   • Why we cannot be certain of the consistency of mathematics

 For an engineer: if a problem is unsolvable — it's not our fault, but a boundary of theory.

-------------------------------------------------------------------------------
 First Gödel incompleteness theorem
-------------------------------------------------------------------------------

 Formulation (simplified):

   In any consistent formal system rich enough
   to describe arithmetic of natural numbers, there exists a statement G
   which:
     • is true (in the standard interpretation)
     • is unprovable in this system

 Intuition — "Liar paradox":

   Consider the sentence: "This sentence is false."
   If it is true — then it is false (contradiction).
   If it is false — then it is true (contradiction).
   Paradox. This sentence has no truth value.

   Gödel constructed a mathematical analogue:
   "This statement is unprovable in system S."

   If it is provable — we proved a falsehood (system is inconsistent).
   If the system is consistent — it is unprovable.
   But then it is true (since it says it is unprovable).

 Proof idea:

   1. Gödel encoded formulas as numbers (Gödel numbering)
      Each symbol — a number, formula — product of powers of primes

   2. Proofs also became numbers
      "x is a proof of formula y" is an arithmetic relation.

   3. Constructed a formula G saying about itself:
      G = "There does not exist a number encoding a proof of formula G"

 Corollary: ZFC (and any "reasonable" system) is incomplete.
   There exist true statements about numbers which ZFC will not prove.

-------------------------------------------------------------------------------
 Second Gödel incompleteness theorem
-------------------------------------------------------------------------------

 Formulation:

   A consistent system rich enough for arithmetic
   cannot prove its own consistency.

 Intuition:

   The statement Con(S) = "System S is consistent" can be written
   as an arithmetic formula (via Gödel numbering).

   Gödel showed: Con(S) → G
   (If S is consistent, then G is true)

   If S proved Con(S), it would prove G.
   But G is unprovable (by the first theorem).
   Therefore, Con(S) is also unprovable in S.

 Philosophical meaning:

   Mathematics cannot guarantee its own reliability.
   We cannot prove that ZFC will not lead to a contradiction.
   We simply believe this (and no contradictions have been found in 100 years).

   This is like bootstrapping: one cannot verify a compiler with itself.


 What this means in practice

 +----------------------------------+---------------------------------+
 | Incompleteness does not mean     | Incompleteness means            |
 +----------------------------------+---------------------------------+
 | "Mathematics is useless"         | There are fundamental boundaries|
 | "Nothing can be proved"          | Some questions are undecidable  |
 | "Computers cannot prove"         | Complete automation is impossible|
 | "Formalism must be abandoned"    | Intuition remains important     |
 +----------------------------------+---------------------------------+

 Examples of undecidable statements:

   • Continuum hypothesis: |ℝ| = ℵ₁?  — independent of ZFC
   • Axiom of choice — independent of ZF
   • Some combinatorial statements (Paris–Harrington)

 For an engineer:

   99.9% of practical problems are not affected by incompleteness.
   Gödel's theorems are important for understanding boundaries, not for daily work.
   If an algorithm does not find a solution — possibly the problem is undecidable,
   but usually one just needs to search better.

 Unifying idea: There exist questions which a formal system
 cannot answer. This is not a weakness — it is a theorem.


===============================================================================
Relations — how structure emerges from sets
===============================================================================

"All mathematics = study of relations between objects"

 Relation = a way to say "these objects are somehow connected"

 In everyday life we constantly use relations:

   • "Ivan is the father of Peter"     (relation "to be a father")
   • "Moscow is larger than Tver"      (relation "larger by population")
   • "5 is less than 7"                (relation "less than")
   • "These two triangles are similar" (relation "similarity")
   • "A and B are friends"             (relation "friendship")

 Key idea: A relation is simply a set of pairs (or triples, etc.),
 which we consider "connected".

   "less than" on ℕ = {(1,2), (1,3), (2,3), (1,4), (2,4), (3,4), ...}

   The notation "3 < 5" simply means "(3, 5) ∈ R", where R is the relation "less than".

 Why formalization?
   • We can prove properties of relations
   • We can combine relations (composition)
   • We can classify relations by properties
   • Foundation for order, equivalence, functions


-------------------------------------------------------------------------------
Formal definition
-------------------------------------------------------------------------------

 Cartesian product

 A × B = {(a, b) | a ∈ A, b ∈ B}  — set of all ordered pairs

 Example: {1, 2} × {a, b} = {(1,a), (1,b), (2,a), (2,b)}

 Formal definition of a pair:
   (a, b) := {{a}, {a, b}}

   This allows us to distinguish (a,b) from (b,a): {{a},{a,b}} ≠ {{b},{a,b}} when a≠b
   Important: an ordered pair is constructed from unordered sets.

 Generalization to n sets:
 A₁ × A₂ × ... × Aₙ = {(a₁, a₂, ..., aₙ) | aᵢ ∈ Aᵢ}  — n-tuples

 Example: ℝ × ℝ × ℝ = ℝ³ — three-dimensional space

-------------------------------------------------------------------------------
 What is a relation
-------------------------------------------------------------------------------

 n-ary relation on sets A₁, ..., Aₙ is a subset:

   R ⊆ A₁ × A₂ × ... × Aₙ

 A tuple (a₁, ..., aₙ) ∈ R means "the elements are connected by relation R".

 +-----------+-------------------------------------------------------------+
 | ARITY     | EXAMPLES                                                    |
 +-----------+-------------------------------------------------------------+
 |           |                                                             |
 | Unary     | R ⊆ A  — simply a subset (property)                         |
 | (n = 1)   | "even" ⊆ ℤ = {x ∈ ℤ | x is divisible by 2}                  |
 |           |                                                             |
 | Binary    | R ⊆ A × B  — connection between two elements                |
 | (n = 2)   | "less than" ⊆ ℝ × ℝ = {(x,y) | x < y}                      |
 |           | "divides" ⊆ ℕ × ℕ = {(a,b) | a | b}                         |
 |           |                                                             |
 | Ternary   | R ⊆ A × B × C  — connection between three elements          |
 | (n = 3)   | "between" ⊆ ℝ × ℝ × ℝ = {(x,y,z) | x < y < z}           |
 |           | "sum" = {(a,b,c) | a + b = c}                               |
 |           |                                                             |
 | n-ary     | A table in a database with n columns.                       |
 |           | Each row is a tuple, the table is a relation                |
 |           |                                                             |
 +-----------+-------------------------------------------------------------+

-------------------------------------------------------------------------------
Most important binary relations
-------------------------------------------------------------------------------

Below — a table of binary relations from which all of mathematics is built.

+------------------+----------------------+----------------------------------+
|  RELATION        |  PROPERTIES          |  EXAMPLES / VISUALIZATION        |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 1. membership    | Basic relation       | • 3 ∈ ℕ                          |
|    x ∈ A         | Not reflexive        | • π ∈ ℝ                          |
|                  | (x ∉ x usually)      | • {1} ∈ 𝒫(ℕ)                     |
| "element         |                      |                                  |
|  of a set"       | Foundation of set    |    A                             |
|                  | theory               |   +-----+                        |
|                  |                      |   |  ●  | ← x ∈ A                |
|                  |                      |   +-----+                        |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 2. inclusion     | • Reflexive:         | • ℕ ⊆ ℤ ⊆ ℚ ⊆ ℝ ⊆ ℂ              |
|    A ⊆ B         |   A ⊆ A              | • {1,2} ⊆ {1,2,3}                |
|                  | • Transitive:        | • ∅ ⊆ A for any A                |
| "subset"         |   A⊆B, B⊆C ⇒ A⊆C     |                                  |
|                  | • Antisymmetric:     |   +---------+                    |
|                  |   A⊆B, B⊆A ⇒ A=B     |   |    B    |                    |
|                  |                      |   |  +---+  |                    |
|                  | Partial order        |   |  | A |  |                    |
|                  | on 𝒫(X)              |   |  +---+  |                    |
|                  |                      |   +---------+                    |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 3.equivalence    | • Reflexive:         | • Equality of numbers (=)        |
|    x ~ y         |   x ~ x              | • Similarity of triangles        |
|                  | • Symmetric:         | • Congruence modulo:             |
| "indistinguishable|   x~y ⇒ y~x         |   a ≡ b (mod n)                  |
|  with respect to | • Transitive:        | • Isomorphism of structures      |
|  a property"     |   x~y, y~z ⇒ x~z     |                                  |
|                  |                      | Partitions X into classes:       |
|                  | Gives factorization: |  +---+---+---+                   |
|                  | X/~ (quotient set)   |  |[x]|[y]|[z]|                   |
|                  |                      |  +---+---+---+                   |
|                  |                      |  equivalence classes             |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 4. (total)       | • Reflexive:         | • ≤ on ℝ                         |
|    ORDER         |                      |                                  |
|     x ≤ y        |   x ≤ x              | • Lexicographic on strings       |
|                  | • Antisymmetric:     | • Chronological (time)           |
| "not greater"    |   x≤y, y≤x ⇒ x=y     |                                  |
|                  | • Transitive:        |      a ≤ b ≤ c ≤ d               |
|                  |   x≤y, y≤z ⇒ x≤z     |      ●---●---●---●               |
|                  | • TOTALITY:          |                                  |
|                  |   ∀x,y: x≤y ∨ y≤x    |  Any two elements are comparable |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 5. partial       | Like total order,    | • ⊆ on 𝒫(X)                      |
|    order         | but without totality | • Divisibility | on ℕ            |
|    x ⪯ y         |                      | • Implication ⇒ on propositions  |
|                  | ∃x,y: incomparable   |                                  |
| "not greater, but| Hasse diagram:       |      +--d--+                     |
|  not always      |                      |      |     |                     |
|  comparable"     |                      |      b     c  ← incomparable     |
|                  |                      |      |     |                     |
|                  |                      |      +--a--+                     |
|                  |                      |                                  |
|                  |                      | Example: {1,2} and {1,3}         |
|                  |                      | incomparable by ⊆                |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 6. function      | • Total:             | • f(x) = x²                      |
|    f: A → B      |   ∀a ∈ A: ∃b         | • sin: ℝ → [-1,1]                |
|                  | • Single-valued:     | • det: M_n → ℝ                   |
| "rule of         |   f(a) is uniquely   |                                  |
|  correspondence" |   defined            |   A = {1, 2}    B = {a, b, c}    |
|                  |                      |                                  |
|                  | Subset of A×B with   |     1 --→ a                      |
|                  | conditions above     |     2 --→ b                      |
|                  |                      |                                  |
|                  |                      |   To each element of A           |
|                  |                      |   corresponds exactly one        |
|                  |                      |   element of B                   |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 7. injection     | Function with        | • f(x) = 2x                      |
|    f: A ↣ B      | additional property: | • exp: ℝ → ℝ⁺                    |
|                  |                      | • embedding ℕ in ℤ               |
| "one-to-one"     | f(x₁) = f(x₂)        |                                  |
|                  |   ⇒ x₁ = x₂          |   A = {1, 2}    B = {a, b, c}    |
|                  |                      |                                  |
|                  | Different inputs →   |     1 --→ a                      |
|                  | different outputs    |     2 --→ b                      |
|                  |                      |           c  (not used)          |
|                  | Preserves distinctions|                                 |
|                  |                      |   |A| ≤ |B|, in B there may be   |
|                  |                      |   "extra" elements               |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 8. surjection    | Function with        | • f: ℝ → ℝ, f(x) = x³            |
|    f: A ↠ B      | additional property: | • projection ℝ² → ℝ: (x,y) ↦ x   |
|                  |                      |                                  |
| "onto"           | ∀b ∈ B: ∃a ∈ A       |   A = {1, 2, 3}   B = {a, b}     |
|                  | such that f(a) = b   |                                  |
|                  |                      |     1 --→ a                      |
|                  | Covers all of B      |     2 --→ a  (both to one point) |
|                  |                      |     3 --→ b                      |
|                  | Each element of B    |                                  |
|                  | has a preimage       |   |A| ≥ |B|, each element of B   |
|                  |                      |   is reached by at least one     |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+
|                  |                      |                                  |
| 9. bijection     | Function that is     | • f: ℝ → ℝ, f(x) = x             |
|    f: A ↔ B      | simultaneously:      | • exp: ℝ → ℝ⁺                    |
|                  | • Injection          | • any isomorphism                |
| "one-to-one      | • Surjection         |                                  |
|  correspondence" |                      |   A = {1, 2, 3}   B = {a, b, c}  |
|                  | Inverse exists       |                                  |
|                  | f⁻¹: B → A           |     1 ←-→ a                      |
|                  |                      |     2 ←-→ b                      |
|                  | |A| = |B|            |     3 ←-→ c                      |
|                  | (equinumerous)       |                                  |
|                  |                      |   Perfect correspondence:        |
|                  |                      |   to each a — exactly one b,     |
|                  |                      |   and vice versa                 |
|                  |                      |                                  |
+------------------+----------------------+----------------------------------+

-------------------------------------------------------------------------------
Morphism — structure-preserving function
-------------------------------------------------------------------------------

Now that we know what a function is, we can define a morphism.

 Key concept: Morphism


 Function (= Mapping) — a rule f: A → B, assigning to each
 element a ∈ A a unique element f(a) ∈ B.

 Morphism — a function between structures that preserves structure.

 Isomorphism — an invertible morphism (bijection preserving structure).
               Means "structures are the same up to renaming of elements".

+-----------------+------------------------+------------------------------+
| STRUCTURE       | MORPHISM IS CALLED     | WHAT IT PRESERVES            |
+-----------------+------------------------+------------------------------+
| Sets            | Function               | (nothing — base case)        |
| Groups          | Homomorphism           | Operation: φ(ab) = φ(a)φ(b)  |
| Rings           | Ring homomorphism      | Both operations: +, ×        |
| Vector spaces   | Linear map             | Linearity: T(αu+βv)=αTu+βTv  |
| Topologies      | Continuous map         | Open sets                    |
| Manifolds       | Smooth map             | Smoothness                   |
| Orders          | Monotone map           | Order: a≤b ⇒ f(a)≤f(b)       |
+-----------------+------------------------+------------------------------+

 Formula ≠ Function (common mistake)


 Formula: a method of computation, for example f(x) = x²
 Function: a triple (domain A, codomain B, correspondence rule)

 Why these are different things:

 1. One function — many formulas:
    f(x) = x² = (x+1)² − 2x − 1 = x·x = ...   (different notations for the same thing)

 2. One formula — different functions (depends on domain):
    +-----------+---------+-----------+-----------------------------+
    | FORMULA   | DOMAIN  | CODOMAIN  | PROPERTIES                  |
    +-----------+---------+-----------+-----------------------------+
    | f(x) = x² | ℝ       | ℝ         | not injective: f(2) = f(−2) |
    | g(x) = x² | ℝ⁺      | ℝ⁺        | Injective and surjective.   |
    | h(z) = z² | ℂ       | ℂ         | Completely different object |
    +-----------+---------+-----------+-----------------------------+

 3. Functions without formulas:
    D(x) = 1 if x ∈ ℚ, otherwise 0  (Dirichlet function — no "formula".)

 Conclusion: Function = triple (A, B, f: A → B).
             Formula — just one way to specify the rule.


 Image and preimage of a set

 For a function f: A → B and subsets S ⊆ A, T ⊆ B:

 +-----------------+---------------------------------------+
 | CONCEPT         | DEFINITION                            |
 +-----------------+---------------------------------------+
 | Image of a set  | f(S) = {f(x) : x ∈ S}                 |
 | f(S)            | = all values of f on elements of S    |
 +-----------------+---------------------------------------+
 | Preimage of set | f⁻¹(T) = {x ∈ A : f(x) ∈ T}           |
 | f⁻¹(T)          | = all points that f sends to T        |
 +-----------------+---------------------------------------+

 Important: f⁻¹(T) — this is not an inverse function.
    Preimage is always defined, even if f is not invertible.
    Inverse function f⁻¹: B → A exists only for bijections.

 Examples:
   f(x) = x², f: ℝ → ℝ
   f({1, 2, 3}) = {1, 4, 9}                 — image of a set
   f⁻¹({4}) = {−2, 2}                       — preimage of a point
   f⁻¹({y : y > 0}) = ℝ \ {0}               — preimage of an interval
   f⁻¹({−1}) = ∅                            — preimage can be empty

 Properties:
   • f(S₁ ∪ S₂) = f(S₁) ∪ f(S₂)             — image of union
   • f⁻¹(T₁ ∪ T₂) = f⁻¹(T₁) ∪ f⁻¹(T₂)       — preimage of union
   • f⁻¹(T₁ ∩ T₂) = f⁻¹(T₁) ∩ f⁻¹(T₂)       — preimage of intersection
   • f(S₁ ∩ S₂) ⊆ f(S₁) ∩ f(S₂)             — for image only ⊆ !

 Application: Topology uses preimages to define continuity:
   f continuous ⟺ preimage of an open set is open


Key patterns:

Checking properties of a relation R:
  1. Reflexivity: xRx for all x?
  2. Symmetry: xRy ⇒ yRx?
  3. Transitivity: xRy, yRz ⇒ xRz?
  4. Antisymmetry: xRy, yRx ⇒ x=y?

Combinations define the type:
  • Reflexivity + Symmetry + Transitivity = Equivalence (partition into classes)
  • Reflexivity + Antisymmetry + Transitivity = Partial order
  • + Totality = Linear order

-------------------------------------------------------------------------------
Equivalence relations and equivalence classes
-------------------------------------------------------------------------------

 Intuition: Equivalence = "Same from a certain point of view"

 Equality (=) — too strict a requirement. Often we care not about complete
 identity, but "sameness" by some criterion:

   • Two people are "equivalent" by age (both are 25 years old)
   • Two triangles are "equivalent" by shape (similar)
   • Two fractions are "equivalent" by value (1/2 = 2/4 = 3/6)
   • Two numbers are "equivalent" by remainder when divided by 3

 Formally: a relation ~ is called an equivalence if it is:

   1. Reflexive:   a ~ a      (each is equivalent to itself)
   2. Symmetric:   a ~ b ⇒ b ~ a  (order doesn't matter)
   3. Transitive:  a ~ b, b ~ c ⇒ a ~ c  (equivalence is "inherited")

-------------------------------------------------------------------------------
Equivalence class = all those "identical" to a given one
-------------------------------------------------------------------------------

 If ~ is an equivalence on set X, then the equivalence class
 of element a is the set of all elements equivalent to a:

   [a] = {x ∈ X | x ~ a}

 Key fact: Equivalence classes partition the set X:

   • Each element x ∈ X lies in exactly one class
   • Different classes do not intersect
   • Union of all classes = X

 Visualization:

   Set X:                        After partition X/~:
   +-----------------------+     +-----------------------+
   | ● ●   ○ ○ ○    ▪ ▪    |     |  [●]   [○]   [▪]      |
   |   ●   ○        ▪ ▪ ▪  |  →  |                       |
   |       ○ ○          ▪  |     | 3 classes             |
   +-----------------------+     +-----------------------+
   (elements of the same "type"  (each class is one
    marked identically)           element of quotient set)

-------------------------------------------------------------------------------
 Concrete examples of equivalence classes
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Example 1: Remainders from division (modular arithmetic)
-------------------------------------------------------------------------------

   Set: ℤ (all integers)
   Relation: a ~ b ⟺ a − b is divisible by 3  (written: a ≡ b (mod 3))

   Equivalence classes:
     [0] = {..., −6, −3, 0, 3, 6, 9, ...}   — numbers with remainder 0
     [1] = {..., −5, −2, 1, 4, 7, 10, ...}  — numbers with remainder 1
     [2] = {..., −4, −1, 2, 5, 8, 11, ...}  — numbers with remainder 2

   Quotient set: ℤ/3ℤ = {[0], [1], [2]} — total of 3 classes.
   (This is a ring of residues — foundation of cryptography)

-------------------------------------------------------------------------------
 Example 2: Fractions (rational numbers)
-------------------------------------------------------------------------------

   Set: ℤ × ℤ* = {(a, b) | a,b ∈ ℤ, b ≠ 0} — pairs "numerator/denominator"
   Relation: (a,b) ~ (c,d) ⟺ a·d = b·c  (fractions are equal)

   Equivalence classes:
     [(1,2)] = {(1,2), (2,4), (3,6), (−1,−2), ...}  — all forms of "one
     [(1,3)] = {(1,3), (2,6), (−1,−3), ...}          half"

   A rational number is an equivalence class, not a specific fraction.
   ℚ = (ℤ × ℤ*)/~ — set of equivalence classes of pairs.

-------------------------------------------------------------------------------
 Example 3: Similarity of triangles
-------------------------------------------------------------------------------

   Set: all triangles on the plane
   Relation: T₁ ~ T₂ ⟺ angles of T₁ equal angles of T₂

   Equivalence class: all triangles of one "shape" (of different sizes)

         +-+              +---+
        ╱   ╲            ╱     ╲
       ╱ 60° ╲          ╱  60°  ╲
      ╱       ╲        ╱         ╲          All three are in one
     ╱ 60° 60° ╲      ╱  60° 60°  ╲         equivalence class
    +-----------+    +-------------+        (equilateral)

-------------------------------------------------------------------------------
 Example 4: Real numbers (construction via Cauchy)
-------------------------------------------------------------------------------

   Set: all Cauchy sequences of rational numbers
   Relation: {aₙ} ~ {bₙ} ⟺ |aₙ − bₙ| → 0

   A real number is an equivalence class of sequences.
   Example: √2 = [{1, 1.4, 1.41, 1.414, 1.4142, ...}]

   (Infinitely many sequences converge to √2 — they are all
    equivalent and form one class, which we call the number √2)

-------------------------------------------------------------------------------
 Example 5: Homotopy classes of paths (topology)
-------------------------------------------------------------------------------

   Set: all paths from A to B in space X
   Relation: γ₁ ~ γ₂ ⟺ γ₁ can be continuously deformed into γ₂

   Fundamental group π₁(X) = equivalence classes of closed paths.
   This construction is the foundation of algebraic topology.

-------------------------------------------------------------------------------
 Quotient set X/~ — "gluing" of equivalent elements
-------------------------------------------------------------------------------

 The quotient set X/~ is the set of equivalence classes:

   X/~ = {[a] | a ∈ X}

 Intuition: We "glue" all equivalent elements into one point.

 Projection: The canonical map π: X → X/~, where π(a) = [a].
   It "forgets" distinctions between equivalent elements.

 Main theorem (Universal property):

   Any function f: X → Y, constant on equivalence classes
   (i.e. a ~ b ⇒ f(a) = f(b)), factors uniquely
   through the quotient set:

           X ------f------→ Y
           |                ↗
         π |            f̄  (exists unique)
           ↓           ╱
          X/~ --------╱

 Where this is used:
   • ℤₙ = ℤ/nℤ         (modular arithmetic, cryptography)
   • ℚ = (ℤ×ℤ*)/~     (construction of rational numbers)
   • ℝ = Cauchy/~      (construction of real numbers)
   • ℂ = ℝ[x]/(x²+1)  (construction of complex numbers)
   • Projective space ℙⁿ = (ℝⁿ⁺¹ \ 0)/~
   • Tori, Klein bottles and other topological objects

 Intuition: from clocks to complex numbers

   ℤ/12ℤ — clock arithmetic. We "wrap" integers onto a clock face:
   13 o'clock = 1 o'clock, because 13 ≡ 1 (mod 12). We declared 12 = 0.

   ℝ[x]/(x²+1) — the same thing, but with polynomials. We "wrap"
   polynomials, declaring x²+1 = 0, that is x² = −1.
   We get: x is a "new number" whose square equals −1.
   This is the imaginary unit i. Complex numbers a + bi are
   polynomials of degree ≤ 1 with arithmetic modulo (x²+1).


 Why does an engineer need equivalence classes?

 1. Modular arithmetic (ℤₙ):
    Hash functions, checksums, cryptography — all this is work
    with residue classes.

 2. Finite automata:
    Minimization of an automaton = merging "equivalent" states
    (those that cannot be distinguished by input data).

 3. Dimensional analysis:
    Physical quantities with the same dimensionality — one class.
    "Meters per second" is the class of all ways to express velocity.

 4. Coordinates:
    A tensor is an equivalence class of sets of numbers (coordinates),
    where two sets are equivalent if they are related by a transformation law.

 5. Clustering:
    Partitioning data into clusters is essentially constructing equivalence
    classes by the criterion of "similarity".


Philosophy:

  Mathematics studies not the objects themselves, but the relations between them.
  A function f: A → B is more important than A and B separately.
  Modern mathematics (categorical) is "mathematics of arrows".

===============================================================================
Mappings — how structures are connected
===============================================================================

Notes: This section is an overview of types of mappings. The terms "group",
"topology", "manifold" are defined in Part II.
Here they are used to illustrate a general pattern.

In the "Relations" section we defined function and morphism. Here are detailed examples.

"A good morphism preserves structure"

-------------------------------------------------------------------------------
Preliminary remark on categories
-------------------------------------------------------------------------------

 All examples below are special cases of one idea: morphism.

   • Objects (sets, groups, spaces, ...)
   • Arrows between them (functions, homomorphisms, continuous maps, ...)
   • Composition of arrows (apply one, then another)

 This is a category — a language that unifies all of mathematics.
 For now it suffices to know: different types of mappings in the table below are
 morphisms in different categories.

   Category of sets:      morphisms = functions
   Category of groups:    morphisms = homomorphisms
   Category of topol. sp.: morphisms = continuous mappings
   Category of vect. sp.: morphisms = linear operators


+----------------------+--------------------------+--------------------------+
| TRANSFORMATION       |  STRUCTURE               |  EXAMPLES                |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 1. function          | Set → Set                | • f(x) = x + 1           |
|    f: A → B          |                          | • projection (x,y) ↦ x   |
|                      | Preserves nothing        | • any mapping            |
| Basic mapping        | (no additional structure)|                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 2. homomorphism      | Group → Group            | • exp: (ℝ,+) → (ℝ⁺,×)    |
|    φ: G → H          |                          |   exp(a+b) = exp(a)exp(b)|
|                      | φ(g₁ ∗ g₂) =             | • det: (GL(n),×) → (ℝ*,×)|
| Preserves operation  |    = φ(g₁) ⊙ φ(g₂)       |   det(AB) = det(A)det(B) |
|                      |                          |   (GL(n) = invertible n×n|
|                      |                          |    matrices)             |
|                      |                          |                          |
| Automorphism if      | Isomorphism if bijection | • complex conjugation    |
| G = H                | (structures "identical") |   z ↦ z̄ on ℂ             |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 3. linear operator   | Vect.sp. → Vect.sp.      | • Rotation in ℝ²         |
|    T: V → W          |                          | • Projection onto subsp. |
|                      | T(αv + βw) =             | • Differentiation        |
| Preserves linear     |    = αT(v) + βT(w)       |   D: C¹ → C⁰             |
| structure            |                          |   D(af + bg) =           |
|                      | Matrix in basis          |   = aD(f) + bD(g)        |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 4. continuous        | Topol.sp. → Topol.sp.    | • f: ℝ → ℝ continuous    |
|    mapping           |                          | • Deformation of rubber  |
|    f: X → Y          | Preimage of open         | • Any f: M → N (smooth)  |
|                      | is open:                 |                          |
| Preserves "closeness"| U ∈ τ_Y ⇒ f⁻¹(U) ∈ τ_X   | Homeomorphism if         |
|                      |                          | bijection + f⁻¹ continuous|
|                      |                          | (topologically "the same")|
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 5. diffeomorphism    | Manifold →               | • Any smooth invertible  |
|    f: M → N          | Manifold                 |   mapping                |
|                      |                          | • ℝ ≅ (0,1) via          |
| Smooth + invertible  | f and f⁻¹ smooth         |   f(x) = x/(1+|x|)       |
|                      |                          |                          |
|                      | Preserves smooth         | Shows geometric          |
|                      | structure                | equivalence              |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 6. derivative        | Function → Function      | • D(x²) = 2x             |
|    d/dx              |                          | • D(sin) = cos           |
|                      | Linear operator:         | • D(eˣ) = eˣ             |
| Instantaneous rate   | D(af + bg) = aD(f)+bD(g) |                          |
| of change            |                          | Geometry: tangent        |
|                      | Local approximation      | to graph                 |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 7. integral          | Function → Number        | • ∫₀¹ x² dx = 1/3        |
|    ∫ₐᵇ f(x)dx        |                          | • ∫ sin x dx = -cos x+C  |
|                      | Linear functional:       |                          |
| Accumulation         | ∫(af+bg) = a∫f + b∫g     | Geometry: area under     |
| (area, mass)         |                          | graph                    |
|                      | Inverse to derivative    |                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 8. tangent           | Manifold →               | • TₚS² — plane           |
|    space             | Vector space             |   tangent to sphere at p |
|    TₚM               |                          | • TₚM — where "live"     |
|                      | Curved → Flat            |   velocity vectors       |
| "Plane at a point"   |                          |                          |
|                      | Functor: M ↦ TₚM         | Linearization of geometry|
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 9. fundamental       | Topology → Algebra       | • π₁(S¹) = ℤ             |
|    group             |                          |   (circle → integers)    |
|    π₁: Top → Grp     | Space ↦ Group            | • π₁(S²) = {e}           |
|                      |                          |   (sphere trivial)       |
| functor              | Loops with homotopies    | • π₁(T²) = ℤ × ℤ          |
|                      |                          |   (torus → two holes)    |
| Geometry → Algebra   | "Holes" transforms into  |                          |
|                      | algebraic structure      | Computation of topology  |
|                      |                          | via groups               |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+
|                      |                          |                          |
| 10. Fourier          | Function → Function      | • cos(ωt) ↔ δ(ω - ω₀)    |
|     transform        |                          | • Convolution ↔ Multiply |
|     ℱ: L²(ℝ) → L²(ℝ) | ℱ(f)(ω) = ∫ f(t)e⁻ⁱωᵗdt  |                          |
|                      |                          | Applications:            |
| Functor              | Unitary operator         | • Signal processing      |
| Time ↔ Frequency     |                          | • Quantum mechanics      |
|                      | Transforms diff. eq.     | • Diff. equations        |
|                      | into algebraic           |                          |
|                      |                          |                          |
+----------------------+--------------------------+--------------------------+

General pattern:

  A good transformation preserves what is important:
    • Homomorphism preserves operation
    • Continuous mapping preserves closeness
    • Linear operator preserves linearity
    • Isometry preserves distance

  Functor — transformation between categories (in detail):
    Translates objects into objects and arrows into arrows, preserving composition.
    Example: π₁ translates topological spaces into groups,
    and continuous mappings — into homomorphisms.

Why this is needed:

  1. Connection between areas: π₁ transforms topology into algebra
  2. Simplification: Fourier transforms diff. eq. into algebraic
  3. Understanding: tangent space makes geometry flat
  4. Computations: isomorphism allows working in a convenient structure

===============================================================================
Numbers — how all numbers arise from emptiness
===============================================================================

-------------------------------------------------------------------------------
Construction of natural numbers
-------------------------------------------------------------------------------

 Construction of natural numbers from the empty set (von Neumann)

All mathematics arises from a single primitive: the empty set ∅

+-------+-----------------------+------------------------------------+
| NUMBER| DEFINITION            | VISUALIZATION                      |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 0     | ∅                     | { }                                |
|       | Empty set             | Nothing there                      |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 1     | {∅}                   | { { } }                            |
|       | Set containing        | Box with empty box                 |
|       | empty set             |                                    |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 2     | {∅, {∅}}             | { { }, { { } } }                   |
|       | = {0, 1}              | Box with: (empty) and (box         |
|       |                       | with empty)                        |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| 3     | {∅, {∅}, {∅, {∅}}}   | { { }, { { } }, { { }, { { } } } } |
|       | = {0, 1, 2}           | Box with 0, 1 and 2                |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+
|       |                       |                                    |
| n     | {0, 1, 2, ..., n-1}   | Set of all previous numbers        |
|       |                       |                                    |
|       | n = {k : k < n}    | n contains within itself all       |
|       |                       | numbers less than itself           |
|       |                       |                                    |
+-------+-----------------------+------------------------------------+

Recursive definition:

  0 := ∅
  n+1 := n ∪ {n}   (next number = previous + set with previous)

Deep meaning:

  • From nothing (∅) arises everything
  • Each number contains all previous: 3 ⊃ 2 ⊃ 1 ⊃ 0
  • Number = "memory" of all previous steps
  • Construction of numbers = successive drawing of boundaries in emptiness

From natural to the rest:

  ℕ = {0, 1, 2, 3, ...}     (defined above)
        ↓
  ℤ = ℕ × ℕ / ~             (pairs (a,b) as "a - b", with equivalence)
        ↓
  ℚ = ℤ × ℤ* / ~            (pairs (p,q) as "p/q", q≠0)
        ↓
  ℝ = {Dedekind cuts}       (or Cauchy sequences in ℚ)
        ↓
  ℂ = ℝ × ℝ                 (pairs (a,b) as "a + bi")

Everything is built from ∅ by successive acts of drawing boundaries.

-------------------------------------------------------------------------------
 Dedekind cut — how to create irrational numbers from rational
-------------------------------------------------------------------------------

 Problem: In ℚ there are "holes"
   Equation x² = 2 has no solution in ℚ (proof — by contradiction)
   But on the number line there must be a point √2.

 Dedekind's idea (1858): define a number through a cut of the line

 Definition:
   Cut (A, B) of the set ℚ is a partition of ℚ into two nonempty classes:

   • A — "lower class": all rational numbers to the left of the cut
   • B — "upper class": all rational numbers to the right of the cut
   • A ∪ B = ℚ,  A ∩ B = ∅
   • Any element of A is less than any element of B
   • In class A there is no greatest element (key condition)

 Visualization:

   Number line ℚ:
   ←--●--●--●--●--●--|--●--●--●--●--●--→
         A          ✂         B
                 (cut)

   Cut for √2:
   A = {q ∈ ℚ : q < 0  or  q² < 2}     (all "to the left of √2")
   B = {q ∈ ℚ : q > 0  and  q² ≥ 2}       (all "to the right of √2")

   In A there is no greatest. For any q ∈ A with q² < 2 there exists
   rational r > q with r² < 2.

 Definition of real number:
   ℝ := {all cuts (A, B) of the set ℚ}

 Two types of cuts:
   1. B has smallest element q ∈ ℚ → cut defines rational q
   2. B has no smallest element → cut defines irrational number

 Arithmetic of cuts:
   (A₁, B₁) + (A₂, B₂) := (A₁ + A₂, ...) where A₁ + A₂ = {a₁ + a₂}
   Similarly defined multiplication, order etc.

 Deep meaning:
   • Irrational number is not an object, but a boundary between objects
   • √2 is not a concrete fraction, but a place of cut of the number line
   • Again the act of drawing a boundary creates a new entity

 Alternative — Cauchy sequences:
   ℝ can also be defined as equivalence classes
   of fundamental sequences in ℚ
   (sequences where |aₙ − aₘ| → 0 as n, m → ∞)

   Example: 1, 1.4, 1.41, 1.414, 1.4142, ... → √2

   Both approaches give the same set ℝ.

-------------------------------------------------------------------------------
Cauchy Sequence — Convergence Without Knowing the Limit
-------------------------------------------------------------------------------

 Problem: How to understand that a sequence converges
          if we don't know what it converges to?

 Cauchy's Idea: A sequence converges if its terms
                become arbitrarily close to each other.

 Definition:
   A sequence {aₙ} is called a Cauchy sequence
   (or fundamental), if:

   ∀ε > 0  ∃N ∈ ℕ:  ∀n,m > N  ⇒  |aₙ − aₘ| < ε

   In words: starting from some number N, the distance between
   any two terms is less than any predetermined ε.

 Visualization:

   Ordinary sequence:
   "All terms are close to limit a"

         a₁    a₂  a₃ a₄a₅
    --●---●----●--●●●●------------→
                   ↑
                   a (limit)

   Cauchy sequence:
   "All terms are close to each other"

         a₁      a₂    a₃  a₄ a₅ a₆ a₇.
    --●-------●-----●---●--●●●●●●--------→
                        +--+
                         <ε
                    "stick together"

 Examples:

   ✓ Cauchy: aₙ = 1/n
     |aₙ − aₘ| = |1/n − 1/m| ≤ 1/n + 1/m → 0
     Terms: 1, 0.5, 0.33, 0.25, 0.2, ...  (stick together around 0)

   ✓ Cauchy: aₙ = 1 + 1/2 + 1/4 + ... + 1/2ⁿ
     Partial sums of geom. progression: 1, 1.5, 1.75, 1.875, ...
     Converges to 2, terms closer and closer to each other

   ✗ Not Cauchy: aₙ = n
     |aₙ₊₁ − aₙ| = 1 — does not tend to 0, terms diverge

   ✗ Not Cauchy: aₙ = (−1)ⁿ
     |aₙ₊₁ − aₙ| = 2 — terms jump between −1 and 1

 Theorem (Cauchy criterion):
 +-------------------------------------------------------+
 |                                                       |
 | In ℝ (real numbers):                                  |
 |                                                       |
 | Sequence converges ⟺ Sequence is Cauchy               |
 |                                                       |
 +-------------------------------------------------------+

 Important: In ℚ this is not the case.

   The sequence 1, 1.4, 1.41, 1.414, 1.4142, ... is Cauchy in ℚ,
   but does not converge in ℚ, because √2 ∉ ℚ.

   This is called incompleteness of ℚ.

 Completeness of ℝ:
   The set ℝ is called complete, because in it
   every Cauchy sequence has a limit.
   This is a key property distinguishing ℝ from ℚ.

 Cauchy construction for ℝ:
   ℝ = {equivalence classes of Cauchy sequences in ℚ}

   Two sequences {aₙ} ~ {bₙ} are equivalent if |aₙ − bₙ| → 0

   Example: (1, 1.4, 1.41, ...) ~ (1.5, 1.42, 1.415, ...) — both "represent" √2

 Deep meaning:
   The Cauchy criterion allows one to speak of convergence
   in an internal way — through the terms of the sequence itself,
   without invoking the concept of "limit" from outside.

-------------------------------------------------------------------------------
 Cardinalities of Sets — Different Sizes of Infinity
-------------------------------------------------------------------------------

 Two sets have the same cardinality if there is a bijection between them.
 For finite sets this is obvious: |{a,b,c}| = |{1,2,3}| = 3.

 And for infinite ones? Cantor showed: there are different infinities.

 Countable sets (cardinality ℵ₀ — "aleph-null"):
   A set is called countable if there exists a bijection with ℕ.
   That is, elements can be "enumerated": a₁, a₂, a₃, ...

   • ℕ — countable (trivially)
   • ℤ — countable. Bijection: 0, 1, −1, 2, −2, 3, −3, ...
   • ℚ — countable. (surprisingly — "more" numbers, but same cardinality)
   • ℕ × ℕ — countable (diagonal traversal)

 Uncountable sets (cardinality > ℵ₀):
   • ℝ — uncountable.
   • (0,1) — uncountable (bijection with ℝ via tan)
   • 𝒫(ℕ) — uncountable (set of all subsets of ℕ)

-------------------------------------------------------------------------------
 Cantor's Diagonal Argument — Why ℝ is Uncountable
-------------------------------------------------------------------------------

 Theorem: The set ℝ (or even the interval [0,1]) is uncountable.

 Proof (by contradiction):

 Suppose [0,1] is countable. Then all numbers can be enumerated:

   x₁ = 0. a₁₁ a₁₂ a₁₃ a₁₄ ...
   x₂ = 0. a₂₁ a₂₂ a₂₃ a₂₄ ...
   x₃ = 0. a₃₁ a₃₂ a₃₃ a₃₄ ...
   x₄ = 0. a₄₁ a₄₂ a₄₃ a₄₄ ...
   ...     ↘   ↘   ↘   ↘
              diagonal

 Construct a number y = 0. b₁ b₂ b₃ b₄ ..., where:

   bₙ ≠ aₙₙ  (differs from n-th number in n-th digit)

 Then y ≠ x₁ (differs in 1st digit)
       y ≠ x₂ (differs in 2nd digit)
       y ≠ xₙ for any n!

 But y ∈ [0,1], so y must be in the list. Contradiction.

 Conclusion: [0,1] cannot be enumerated. The set ℝ is uncountable.

 Deep meaning:
   The diagonal argument is a universal method. It shows:
   𝒫(A) always has greater cardinality than A (Cantor's theorem).
   Infinities form a hierarchy: ℵ₀ < 2^ℵ₀ < 2^(2^ℵ₀) < ...

-------------------------------------------------------------------------------
 Continuum Hypothesis — A Mystery Without an Answer
-------------------------------------------------------------------------------
The cardinality of ℝ is called continuum and is denoted c or 2^ℵ₀.

 Cantor's question (1878):
   Does there exist a set with cardinality between ℵ₀ and c?
   That is: is there an infinity "in between" ℕ and ℝ?

 Continuum hypothesis (CH): No, there does not exist. That is c = ℵ₁.

 Shocking result of the 20th century:

   • Gödel (1940): CH is consistent with ZFC (cannot be refuted)
   • Cohen (1963):   ¬CH is also consistent with ZFC (cannot be proven)

   ⇒ CH is independent of the axioms of ZFC.

 This is not a question of "we don't know yet". This is fundamental: within ZFC
 the question has no answer. One can work in mathematics with CH or without it.

 Philosophical lesson:
   There are meaningful mathematical questions to which the axioms do not answer.
   Mathematics is not a single "true" system, but a family of possible ones.


===============================================================================
Extension of numbers — what is missing?
===============================================================================

 Main idea:

 Each number system arises as an answer to the question:
 "What equation has no solution?"

 We extend numbers → obtain solution → lose some property

 Terminology (strict definitions):
   • Field = set with +, ×, where everything except 0 is invertible (ℚ, ℝ, ℂ)
   • Ring = field without mandatory division (ℤ)
   • Division algebra = "almost field", but possibly noncommutative (ℍ, 𝕆)


 Hierarchy of number systems
+-------+-------------+---------+----------------------+------------------+
| NUMBER| EQUATION    | SOLUTION| WHAT WE LOSE         | WHAT WE GAIN     |
|       | WITHOUT     |         |                      |                  |
|       | SOLUTION    |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℕ     | x + 3 = 1   | not in ℕ| —                    | Counting         |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℤ     | 2x = 3      | not in ℤ| "always ≥ 0"         | Subtraction      |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℚ     | x² = 2      | not in ℚ| Discreteness         | Division         |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℝ     | x² = −1     | not in ℝ| Countability         | Continuity       |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℂ     | all exist.  | —       | Order (<, >) | Alg. closedness  |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| ℍ     | (special)   | —       | Commutativity        | 4D rotations     |
|       |             |         | ab ≠ ba              |                  |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+
|       |             |         |                      |                  |
| 𝕆     | (special)   | —       | Associativity        | 8D, exceptional  |
|       |             |         | (ab)c ≠ a(bc)        | structures       |
|       |             |         |                      |                  |
+-------+-------------+---------+----------------------+------------------+

 Visualization


   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ
   |   |   |   |   |
   |   |   |   |   +-- Plane (2D): a + bi
   |   |   |   +------ Line (1D): continuous
   |   |   +---------- Line (1D): with holes (no √2)
   |   +-------------- Line (1D): integer points
   +------------------ Ray: 0, 1, 2, 3, ...

   ℍ (quaternions): 4D, basis {1, i, j, k},  i² = j² = k² = ijk = −1
   𝕆 (octonions):   8D, last division algebra over ℝ

-------------------------------------------------------------------------------
 Frobenius theorem (1877) and Hurwitz theorem (1898)
-------------------------------------------------------------------------------
 Frobenius: Associative division algebras over ℝ:  ℝ, ℂ, ℍ — and that's all.
 Hurwitz:   Normed division algebras over ℝ:  ℝ, ℂ, ℍ, 𝕆 — and that's all.

 Dimensions: 1, 2, 4, 8 — no more.

 With each extension we lose a fundamental property:
   ℝ → ℂ:  we lose order
   ℂ → ℍ:  we lose commutativity
   ℍ → 𝕆:  we lose associativity
   𝕆 → 𝕊:  we lose the ability to divide (zero divisors appear)

 Sedenions 𝕊 (16D) and beyond — mathematically exist, but are useless
 for physics: in them ab = 0 is possible with a ≠ 0 and b ≠ 0.
 Therefore the chain ℝ → ℂ → ℍ → 𝕆 — this is all there is.

-------------------------------------------------------------------------------
Fundamental Theorem of Algebra
-------------------------------------------------------------------------------

 Any polynomial with complex coefficients has a root in ℂ.

 This means: ℂ is closed under solving equations.
 There is no need to extend further "for the sake of equations".

 Therefore ℂ is called an "algebraically closed field".

-------------------------------------------------------------------------------
 Numbers as points in spaces — topological differences
-------------------------------------------------------------------------------

 Hierarchy of embeddings:

   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ

   Each subsequent set "fills the holes" of the previous one:
   ℕ → ℤ : added negatives (solution of a + x = 0)
   ℤ → ℚ : added fractions (solution of ax = b)
   ℚ → ℝ : filled "holes" (limits of sequences)
   ℝ → ℂ : added √(-1) (roots of all polynomials)


 Geometric picture:

   ℤ — lattice on the line         ℂ — plane
   (separate points)             (ℝ — horizontal axis)

   --●--●--●--●--●--●--           Im
     -2 -1  0  1  2  3             |
                                   |        ● 2+i
                               ----+----●--------► Re
                                   |     1
                                   ● -i
                                   |

   ℚ — "dust" on the line          ℝ — continuous line
   (everywhere dense, but holey)    (without holes, complete)

   -·-·-·-·-·-·-·-·-·-           ━━━━━━━━━━━━━━━━━━━
       √2 — hole.                   √2 exists.

-------------------------------------------------------------------------------
 Topological properties
-------------------------------------------------------------------------------

 +---------+---------------------------------------------------------+
 | SPACE   | TOPOLOGICAL PROPERTIES                                  |
 +---------+---------------------------------------------------------+
 | ℕ, ℤ    | Discrete topology: each point — open set                |
 |         | Not compact, not connected (each point — component)     |
 +---------+---------------------------------------------------------+
 | ℚ       | Everywhere dense in ℝ, but "holey"                      |
 |         | Not complete (sequence → √2 has no limit in ℚ)          |
 |         | Not connected (ℚ = (−∞,√2)∩ℚ ∪ (√2,+∞)∩ℚ — partition)  |
 +---------+---------------------------------------------------------+
 | ℝ       | Complete, connected, locally compact                    |
 |         | The unique complete ordered field.                      |
 +---------+---------------------------------------------------------+
 | ℂ       | Complete, connected, locally compact                    |
 |         | Algebraically closed (any polynomial has a root)        |
 |         | No order compatible with operations.                    |
 +---------+---------------------------------------------------------+

 Key idea:
   ℕ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ  — this is not just "adding numbers".
   At each step the topology and algebraic structure of the space changes.


===============================================================================
Dictionary of mathematical jargon
===============================================================================

Mathematicians use words that are rarely explained in textbooks.
Here is a dictionary of the most common "invisible" terms.

 Canonical


 = "natural", "unique", "not requiring an arbitrary choice"

 Example:
   • V** ≅ V — canonical isomorphism (there is a natural correspondence)
   • V* ≅ V — not canonical (need to choose a basis, result depends on
              choice)

 When they say "canonical" — it means there is one correct way,
 and no additional choices need to be made.

-------------------------------------------------------------------------------
 Correctly defined / well defined
-------------------------------------------------------------------------------

 = "result does not depend on the method of representation"

 Problem: Sometimes the same object can be written in different ways.
           A function is well-defined if it gives the same answer
           for all representations.

 Example 1 (incorrect):
   Let f: ℤ/3ℤ → ℤ, f([x]) = remainder of x when divided by 2.
   Check: f([0]) = 0, f([3]) = 1.
   But [0] = [3] in ℤ/3ℤ. Therefore f([0]) must = f([3]).
   Contradiction: 0 ≠ 1. Function f is not well-defined.

 Example 2 (correct):
   Let g: ℤ/6ℤ → ℤ/2ℤ, g([x]) = [x mod 2].
   Check: if [x] = [y] in ℤ/6ℤ, then x ≡ y (mod 6).
   Therefore x ≡ y (mod 2), and [x mod 2] = [y mod 2].
   Function g is well-defined. ✓

 Conclusion: When working with equivalence classes one must always check
         correctness of definition.

-------------------------------------------------------------------------------
 Without loss of generality
-------------------------------------------------------------------------------
= "it suffices to consider the special case, the rest reduce to it"

 Example 1:
   Theorem: |a + b| ≤ |a| + |b|
   Proof: "W.l.o.g. let a ≥ 0."
   Why can we? If a < 0, replace a with −a (the absolute value won't change),
   and return to the case a ≥ 0.

 Example 2:
   Prove something for two points A and B.
   "W.l.o.g. let A be to the left of B."
   Why can we? We can rename: A ↔ B.

 When it can be used:
   • There is symmetry in the condition (a and b are interchangeable)
   • Can be reduced to the needed case by substitution of variables
   • The operation (renaming, change of sign) doesn't change the essence of the problem

 When it cannot:
   • Conditions for a and b are different
   • The transformation changes the structure of the problem

-------------------------------------------------------------------------------
 Trivial / nontrivial
-------------------------------------------------------------------------------

 Trivial = "obvious", "empty", "simplest possible"
 Nontrivial = "substantial", "not reducing to the obvious"

 Examples:
   • Trivial solution of Ax = 0: x = 0
   • Trivial subgroup: {e} or all of G
   • Nontrivial root: x ≠ 0

 Irony: What is "trivial" for a professor may be difficult for a student.
         "Trivially follows." often means "I don't want to explain this".

-------------------------------------------------------------------------------
 Why the symbol ∘ for composition
-------------------------------------------------------------------------------

 The notation (f ∘ g)(x) = f(g(x)) means: "apply g first, then f".

 Why right to left:
   From the notation f(g(x)) — first we compute g(x), then f of the result.
   The inner function is applied first.

 Origin of the symbol:
   ∘ — small circle, "linking element" between functions.
   Introduced in the 19th century for brevity.

 Alternative notation (rare):
   f ; g = g ∘ f — "first f, then g" (reads left to right)
   Used in some programming languages and category theory.

 Remember: f ∘ g read as "f after g" or "f circle g".

-------------------------------------------------------------------------------
 Unique up to
-------------------------------------------------------------------------------

 = "unique if we don't distinguish objects of a certain type"

 Examples:
   • "A basis is unique up to order" — vectors can be permuted
   • "Solution is unique up to sign" — there are exactly two: x and −x
   • "Group is unique up to isomorphism" — all such groups
     are isomorphic to each other

 Meaning: There are several objects, but they are "the same" in a certain sense.


-------------------------------------------------------------------------------
Typical errors in reasoning
-------------------------------------------------------------------------------

 Error 1: Confusing implication A⇒B with equivalence A⟺B


   A ⇒ B  does not mean  B ⇒ A

   True:  "If n is divisible by 4, then n is divisible by 2"
   False: "If n is divisible by 2, then n is divisible by 4"
            Counterexample: n = 6 is divisible by 2, but 6 is not divisible by 4.

   Correct relations:
     A ⇒ B   (direct implication)
     B ⇒ A   (converse implication) — different statement
     ¬B ⇒ ¬A (contrapositive) — equivalent to direct


 Error 2: Circular proof


   Wrong: "Prove A. Assume A. Then. Therefore A. ∎"

   This is not a proof. You used A to prove A.

   More subtle version:
   "From A follows B. From B follows C. From C follows A."
   This proves A ⟺ B ⟺ C, but doesn't prove that A is true.


 Error 3: Confusing the order of quantifiers ∀x∃y and ∃y∀x


   ∀x ∃y: P(x,y)  — for each x there exists its own y (y depends on x)
   ∃y ∀x: P(x,y)  — there exists one y working for all x

   Example: Continuity vs uniform continuity

   ∀ε>0 ∀x ∃δ>0: ...  — δ can depend on x and ε (simple continuity)
   ∀ε>0 ∃δ>0 ∀x: ...  — δ is one for all x (uniform continuity)

   These are different properties. f(x) = 1/x is continuous on (0,1), but not uniformly.


 Error 4: Dividing by an expression that may be zero


   Wrong: "From ax = ay divide by a, we get x = y"

   What if a = 0? Then 0 = 0 is true for any x, y.

   Correct: "If a ≠ 0, then from ax = ay follows x = y."
              "If a = 0, then the equality holds for any x, y."


 Error 5: One example is not a proof


   Wrong: "41 is prime, 41+2=43 is also prime.
                 Therefore, if p is prime, then p+2 is also prime."

   Counterexample: 7 is prime, but 7+2 = 9 = 3² is not prime.

   Asymmetry:
     • To prove ∀x P(x) need to check all x
     • To refute ∀x P(x) one x with ¬P(x) is enough


 Error 6: Identifying necessary and sufficient


   A — sufficient condition for B:  A ⇒ B  (if A, then certainly B)
   A — necessary condition for B:  B ⇒ A  (without A there is no B)

   Example: "Being a square" for "divisible by 4"

   Sufficient? n = k² ⇒ n is divisible by 4?  No. (9 = 3², but 4 ∤ 9)
   Necessary? n is divisible by 4 ⇒ n is a square? No. (8 is divisible by 4, 8 ≠ k²)


-------------------------------------------------------------------------------
Why Symbols Instead of Words
-------------------------------------------------------------------------------

 Question: Why do mathematicians write ∀ε>0 ∃δ>0 instead of words?


 Reason 1: Compactness

   In words:
   "For any positive number epsilon there exists such a positive
    number delta that for all x, if the absolute value of the difference x and a is less than delta,
    then the absolute value of the difference f of x and L is less than epsilon."

   In symbols:
   ∀ε>0 ∃δ>0 ∀x: |x−a|<δ ⇒ |f(x)−L|<ε

   One line instead of four.


 Reason 2: Precision

   The order of quantifiers is visible immediately:

   ∀ε ∃δ  — for each ε its own δ (ordinary continuity)
   ∃δ ∀ε  — one δ for all ε (different property)

   In words this is easy to confuse.


 Reason 3: Manipulation

   Logical rules are applied mechanically:

   ¬(∀x P(x)) = ∃x ¬P(x)   — simply flip the quantifier and negate P
   ¬(∃x P(x)) = ∀x ¬P(x)

   In words such transformations are easy to confuse.


 Advice for reading:
   On first reading translate symbols into words aloud.
   "For all epsilon greater than zero there exists delta greater than zero."

 Advice for writing:
   Use symbols for precision of structure.
   Add verbal explanations for intuition.


-------------------------------------------------------------------------------
Why Terms Are Called This Way (etymology)
-------------------------------------------------------------------------------

Understanding the origin of terms helps remember their meaning.

-------------------------------------------------------------------------------
 Algebraic terms
-------------------------------------------------------------------------------

 Kernel (from Ger. Kern = grain, core):
   Historical metaphor: "core" of what is lost under the mapping.
   The kernel is what "collapses" into the neutral element.
   ker(φ) = {x : φ(x) = 0} — the central part of "losses".

 Image (from Lat. imago = reflection):
   Literally: "picture", "reflection" of the original set.
   Im(f) = f(A) — where set A "maps to".

 Homomorphism (ὁμός = same, μορφή = form):
   "Preserving form" — transfers operations without changing structure.
   φ(a · b) = φ(a) · φ(b) — the operation "looks the same" before and after.

 Isomorphism (ἴσος = equal):
   "Equal-form" — structures are completely identical algebraically.
   Bijective homomorphism: nothing is lost, nothing is glued together.

 Group (Fr. groupe, Ger. Gruppe):
   Introduced by Galois (1830s) for "group of permutations of roots of an equation".
   Originally: a collection of symmetries associated with an algebraic equation.

 Ring (Ger. Ring):
   Initially: cyclic structures of type ℤ/nℤ, which "loop around".
   Dedekind (1871) used for "rings of integers" in fields.

 Field (Ger. Körper = body, Eng. field):
   German term "body" = space for full-fledged arithmetic.
   English "field" = domain/field of activity for all operations.
   Field — where one can divide by everything nonzero.

 Ideal (from Kummer, 1840s):
   Originally "ideal numbers" — fictitious elements for restoring
   uniqueness of factorization into prime factors.
   Dedekind formalized as a subset of a ring.

-------------------------------------------------------------------------------
 Geometric and topological terms
-------------------------------------------------------------------------------

 Topology (τόπος = place, λόγος = study):
   "Science of places/position" — studies what is near what.
   Introduced by Listing (1847): "Topology — geometry of position".

 Manifold (from Ger. Mannigfaltigkeit):
   A "manifold" can look different in different places,
   but locally always like ℝⁿ. Riemann (1854).

 Homotopy (ὁμός = same, τόπος = place):
   Two paths are "same-placed" = can be continuously deformed one into the other.

 Simplex (Lat. simplex = simple):
   Simplest polytope in a given dimension:
   point → segment → triangle → tetrahedron → ...

 Compact (Lat. compactus = densely compressed):
   A set is "tightly packed" — from any covering one can choose
   a finite subcovering. No "infinite holes" or "escape to infinity"

 Connected:
   A "whole" cannot be split into two disjoint open sets.
   One can get from any point to any other without leaving the set.

-------------------------------------------------------------------------------
 Analytic terms
-------------------------------------------------------------------------------

 Continuous (from Lat. continuus = connected):
   "Without breaks" — small changes in argument give small changes in value.

 Differentiable (from Lat. differentia = difference):
   One can compute the "difference quotient" and pass to the limit.
   The function is "distinguishable" — one can see how it changes.

 Integral (from Lat. integer = whole):
   "Restoration of the whole" from parts (summation of infinitesimals).
   Leibniz used ∫ as a stylized letter S (summa).

 Convergence (from Lat. convergere = to incline toward):
   Members of the sequence "incline toward" one point.

 Limit (from Lat. limes = boundary):
   "Boundary" toward which a sequence or function tends.


===============================================================================
Category viewpoint — a language for everything that follows
===============================================================================

Before moving on to specific structures (groups, spaces, manifolds),
let us introduce the language in which all of them are described uniformly.

 Main idea:
 Mathematical objects are important not in themselves, but through relations between them.

 Category = Objects + Arrows (morphisms) between them

      A --f--► B --g--► C

 Objects: what we study (sets, groups, spaces)
 Arrows: how objects are connected (functions, homomorphisms, continuous maps)

 Key property: arrows can be composed (g∘f: A → C)


 Examples of categories (which will be encountered below)
 +-----------+--------------+-------------------------+
 | CATEGORY  | OBJECTS      | ARROWS                  |
 +-----------+--------------+-------------------------+
 | Set       | Sets         | Functions               |
 | Grp       | Groups       | Homomorphisms           |
 | Vect      | Vector sp.   | Linear mappings         |
 | Top       | Top. sp.     | Continuous mappings     |
 | Man       | Manifolds    | Smooth mappings         |
 +-----------+--------------+-------------------------+

 In all these cases the pattern is one:
   • There are objects with some structure
   • There are mappings preserving this structure
   • Mappings can be composed


===============================================================================
How a mathematician thinks — heuristics and methods of thinking
===============================================================================

We have defined the basic objects: sets, numbers, relations, categories.
Before building spaces on them (Part II) — a few words about
how mathematical thinking itself is organized. What is an invariant?
When to generalize? When to look for a counterexample? These heuristics permeate
the entire atlas.



 When to look for an invariant


 An invariant is a quantity that does not change under transformations.
 If we rotate, deform, recompute in other coordinates —
 and some number or property remains the same — this is an invariant.
 Invariants separate the essential from the inessential.

 If objects change, but something is preserved — look for an invariant.

 Examples:
   • Rotations change coordinates, but preserve length: ‖v‖ = inv
   • Deformations change shape, but preserve the number of holes: π₁ = inv
   • Time changes the system, but preserves energy: H = inv (if ∂L/∂t = 0)

 Heuristic: "What has not changed?" — the first question of a mathematician.


 When to generalize, when to make concrete


 Generalize, if:
   • The proof works for a broader class
   • Specific details are not used
   • You want to understand the essence, discarding the "noise" of particulars

 Make concrete, if:
   • The general theorem does not give an explicit answer
   • A computational result is needed
   • The special case has additional structure

 Example: Fixed point theorem (general) → Newton's method (concrete).
 The general one says "exists", the concrete one says "how to find".


 What to do when the proof does not go through


 1. Check special cases
    Is the statement true for n=1,2,3? For the simplest examples?
    If not — look for a counterexample, not a proof.

 2. Weaken the statement
    Perhaps it is true under additional conditions?
    Perhaps a weaker estimate is true?

 3. Strengthen the statement
    Paradoxically, but sometimes a stronger statement is easier to prove.
    Induction often requires strengthening the hypothesis.

 4. Reformulate
    The same problem in a different language (algebra ↔ geometry ↔ analysis).
    Sometimes a different view makes the solution obvious.

 5. Study analogous theorems
    How were similar results proved? What ideas were used?


 How to choose between formalizations


 One problem — many languages (see introduction). How to choose?

 Criteria:
   • What operations are needed? (addition → linear alg, proximity → topology)
   • What answer is needed? (existence → abstract, number → concrete)
   • What is known? (symmetry → groups, smoothness → analysis)

 Heuristic: Choose the language where the problem becomes standard.

 Example: Heat equation
   • Want to understand qualitative behavior → semigroups (e^{At})
   • Want to compute a concrete solution → Fourier or numerically
   • Want to prove existence → functional analysis


 Principle of economy of structure


 Do not introduce more structure than needed for the solution.

 Bad: "Let V — be a Hilbert space." (if only norm is needed)
 Good: "Let V — be a normed space."

 Why this is important:
   • The proof works for a broader class
   • Easier to understand what exactly is being used
   • The result is easier to apply in other contexts

 Exception: If additional structure makes the proof simpler,
 sometimes it is worth using it, and then generalizing the result.


 Intuition vs rigor


 A mathematician works in two stages:

   Stage 1 (intuition): "Why should this be true?"
   Pictures, analogies, physical reasoning, examples.
   Goal: understand, not prove.

   Stage 2 (rigor): "How to prove this?"
   Formal definitions, logical steps, checking all cases.
   Goal: convince (oneself and others).

 Beginner's mistake: skipping stage 1.
   Without intuition proof is blind enumeration.

 Physicist's mistake: stopping at stage 1.
   Intuition sometimes deceives (example: paradoxes of 19th century analysis).



▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                              PART II: SPACES
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

          Introduction: Different views on one space

===============================================================================
Three Problems on Spaces
===============================================================================

 What can be done with mathematical objects?


 Any work with a space (and with a mathematical object in general)
 Reduces to one of three problems:

   Classification — what kind of object is this? what is possible in principle?
   Computation    — find a specific value within the known
   Construction   — create a new object from existing ones

 These three problems exhaust everything that can be done in mathematics.

-------------------------------------------------------------------------------
 Classification — normative boundaries
-------------------------------------------------------------------------------

 Classification answers: What is this? What is possible in principle?

 Result: "this is X, not Y", "this is possible / impossible", "there are exactly N of these"

 Examples:
   • Closed surfaces are exactly this many: spheres with handles + nonorientable.
   • A rigid body has 6 degrees of freedom (not 5, not 7)
   • Equation of 5th degree is not solvable in radicals (group S₅ is unsolvable)
   • Field F = grad φ exists ⟺ rot F = 0 and domain is simply connected
   • Sphere and torus are not homeomorphic (different π₁, different χ)

 Classification establishes boundaries — what can be sought, and what is pointless.

 Tools: topological invariants, symmetry groups, existence/uniqueness theorems.

-------------------------------------------------------------------------------
 Computation — find the specific
-------------------------------------------------------------------------------

 Computation answers: Where exactly? How many? What value?

 Result: number, coordinates, formula, specific object

 Examples:
   • Find roots of equation x³ − 2x + 1 = 0
   • Compute integral ∫₀^∞ e^{−x²} dx = √π/2
   • Find eigenvalues of a matrix
   • Determine shortest path on a surface (geodesic)
   • Find minimum of function on a compact

 Computation works within boundaries established by classification.
 If classification says "does not exist" — there is nothing to compute.

 Tools: algorithms, optimization methods, numerical methods,
 analytical techniques.

-------------------------------------------------------------------------------
 Construction — create new
-------------------------------------------------------------------------------

 Construction answers: How to obtain a new object from existing ones?

 Result: new object that did not exist before

 Examples:
   • a × b — new vector from two given
   • V ⊗ W — new space from two given
   • G/H — quotient group (new group from group and subgroup)
   • ℚ → ℝ — completion (new space from old)
   • Product M × N — new manifold
   • Tangent bundle TM — new space over M
   • Additional constructions in geometry (draw a line, drop ⊥)

 Difference from computation: computation finds existing (root already exists,
 we are searching for it). Construction creates — before operation a × b this vector did not exist.

 Tools: operations (×, ⊗, ∧, /, ×), constructions (completion,
 covering, extension), universal properties.

-------------------------------------------------------------------------------
 Connection of three problems
-------------------------------------------------------------------------------

                      Classification
                      "what is possible?"
                           |
              +------------+------------+
              ↓                         ↓
        Construction              Computation
      "create new"              "find within"
              |                         |
              +----------+--------------+
                         ↓
                   New objects
                         |
                         ↓
              Classification of new.

 Classification establishes boundaries →
   Construction creates objects within boundaries →
     Computation finds specific values →
       Results may require new classification


 Classification (what is possible, invariants, types):
   Groups — classification of symmetries and motions
   Topology — classification of spaces by shape
   Number theory — classification of numbers

 Computation (find value, solve equation):
   Linear algebra — systems of equations, eigenvalues
   Analysis — derivatives, integrals, series
   Functional analysis — equations in infinite dimension

 Construction (create new object):
   Vector products — ⟨,⟩, ×, ∧, ⊗
   Duality — V → V*
   Tensors — multilinear constructions
   Manifolds — gluing from charts
   Diff. forms — forms from vectors

 Most fields include all three problems in different proportions.


-------------------------------------------------------------------------------
Table of spaces — central table
-------------------------------------------------------------------------------

 Space — central object of mathematics

 All mathematics studies spaces and structures on them:
   • Topology: shape of space (holes, connectedness)
   • Algebra: symmetries of space (groups)
   • Analysis: functions on space
   • Geometry: measurements on space (metric, curvature)

-------------------------------------------------------------------------------
Hierarchy of Spaces — what is added at each level
-------------------------------------------------------------------------------

   Set (simply a collection of points)
       | + topology (notion of "closeness", open sets)
       ↓
   Topological space
       | + local Euclideanness (looks like ℝⁿ locally)
       ↓
   Manifold
       | + metric (way to measure distances)
       ↓
   Riemannian manifold
       | + physical equations
       ↓
   Spacetime (GR)

   Parallel branch:

   Set
       | + linear structure (addition, multiplication by number)
       ↓
   Vector space
       | + scalar product
       ↓
   Euclidean space ℝⁿ
       | + infinite dimension
       ↓
   Hilbert space (quantum mechanics)

===============================================================================
Main Spaces — catalog
===============================================================================

 Notation in table:

   dim = dimension (how many coordinates needed to describe a point)
   π₁  = fundamental group (which loops cannot be contracted to a point?)
         means "all loops contract", ℤ — "there is one unclosed"
   H₁  = first homology group (similar to π₁, but abelian version)
   χ   = Euler characteristic = V − E + F (vertices − edges + faces)
         Shape invariant: sphere χ=2, torus χ=0, projective plane χ=1

   Invariants — table

+-------------+-----+-------+-------+-----+-------------------------------------+
| SPACE       |dim  | π₁    | H₁    |  χ  | WHAT IT IS / WHERE IT APPEARS       |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Point {*}   |  0  |   0   |   0   |  1  | Trivial; zero-dimensional "world"   |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Line ℝ      |  1  |   0   |   0   |  —  | Noncompact; time, temperature       |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Circle      |  1  |   ℤ   |   ℤ   |  0  | S¹ = {|z|=1}; angles, phases, periods |
| S¹          |     |       |       |     | Group U(1).                         |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Plane       |  2  |   0   |   0   |  —  | Noncompact; ordinary geometry       |
| ℝ²          |     |       |       |     |                                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Sphere S²   |  2  |   0   |   0   |  2  | Surface of ball; Earth, sky         |
|             |     |       |       |     | All loops contract.                 |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Torus T²    |  2  |  ℤ²   |  ℤ²   |  0  | Donut = S¹×S¹; two angles            |
|             |     |       |       |     | Periodic boundary conditions        |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Projective  |  2  |  ℤ/2  |  ℤ/2  |  1   | ℝP² = "directions of lines"         |
| plane       |     |       |       |     | Nonorientable.                      |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| Klein       |  2  | ℤ⋊ℤ   |ℤ⊕ℤ/2   |  0  | Nonorientable; 4D needed            |
| bottle K    |     |       |       |     |                                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| 3-sphere S³ |  3  |   0   |   0   |  0  | ≅ SU(2). Space of rotations         |
|             |     |       |       |     | (up to ±)                           |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| SO(3)       |  3  |  ℤ/2  |  ℤ/2  |  0  | All rotations in ℝ³                 |
|             |     |       |       |     | ≅ ℝP³ (not S³.)                     |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+
|             |     |       |       |     |                                     |
| ℝ⁴ (space-  |  4  |   0   |   0   |  —  | Spacetime (SR)                      |
| time SR)    |     |       |       |     | Flat, Minkowski metric              |
|             |     |       |       |     |                                     |
+-------------+-----+-------+-------+-----+-------------------------------------+

-------------------------------------------------------------------------------
Classification of closed surfaces (dim = 2)
-------------------------------------------------------------------------------

 Theorem: Any closed surface is:

   Orientable:        Sphere with g handles (genus g)

     g = 0     g = 1     g = 2
       ○         ◎        ◎◎      χ = 2 − 2g
     sphere    torus    "pretzel"

   Non-orientable:      Sphere with k "crosses" (Möbius glued in)

     k = 1     k = 2
      ℝP²       K        χ = 2 − k
   project.   Klein

 This is a complete classification. There are no other closed surfaces.

-------------------------------------------------------------------------------
 Connection of spaces with groups
-------------------------------------------------------------------------------

 Many important spaces are simultaneously groups:

   S¹ ≅ U(1) ≅ SO(2)    — circle = rotation group of the plane
   S³ ≅ SU(2)           — 3-sphere = group (double cover of SO(3))
   SO(3) ≅ ℝP³          — rotations in 3D = projective space
   GL(n), SL(n), O(n)   — matrix groups = manifolds

 These are Lie groups — groups which are simultaneously manifolds.

 The fundamental group π₁ also connects:
   π₁(S¹) = ℤ           — integers as a group
   π₁(T²) = ℤ²          — lattice
   π₁(∨ₙS¹) = Fₙ        — free group


===============================================================================
Three attitudes toward space
===============================================================================

 Problem: define the subject of each area of mathematics

+------------------+-------------+---------------------------+
| AREA             | VERB        | QUESTION                  |
+------------------+-------------+---------------------------+
| Differential     | Measures    | How is it arranged inside?|
| geometry         |             | (curvature, metric, angles)|
+------------------+-------------+---------------------------+
| Algebraic        | Distinguishes| How does it differ from  |
| topology         |             | others? (invariants: π₁, Hₙ)|
+------------------+-------------+---------------------------+
| Group theory     | Transforms  | What can be done with it? |
|                  |             | (symmetries, actions)     |
+------------------+-------------+---------------------------+

The word "algebraic":

+--------------------------+-------------------------------------------------+
| ALGEBRAIC TOPOLOGY       | Space → Group.  Algebra as a tool.              |
| ALGEBRAIC GEOMETRY       | Equations → Space. Algebra as a source.         |
+--------------------------+-------------------------------------------------+


-------------------------------------------------------------------------------
Group — symmetries of space
-------------------------------------------------------------------------------

If a set is dust, and topology is fabric, then a group is mobility.
A group answers the question: how can one move in space without breaking it?
What transformations are allowed?

In terms of "object—observer" the group is the key concept.

-------------------------------------------------------------------------------
Group is a catalog of observer's motions that do not change the object
-------------------------------------------------------------------------------

If the observer turns — the object looks different, but the object itself has not changed.
The group SO(3) is all possible rotations. Each element of the group — a specific
rotation. Composition — perform one rotation, then another.

Why this is fundamental: physical laws should not depend on how
the observer stands. "Covariance" in physics is the requirement that
equations look the same for all observers connected by a group.

An invariant of a group — that which does not change under any motions from the group.
For example, distance is an invariant of the rotation group. Two observers, rotated
relative to each other, will measure the same distance.

-------------------------------------------------------------------------------
Group as a view of space
-------------------------------------------------------------------------------

 A group is a set of transformations of space preserving its
 structure. Different groups "see" different things in one space:

   • SO(3) sees rotations in ℝ³ (preserves distances and orientation)
   • GL(n) sees linearity (preserves lines and origin)
   • Crystal symmetries see discrete lattice

-------------------------------------------------------------------------------
 Where did groups come from — history
-------------------------------------------------------------------------------

 Equations of degrees 1, 2, 3, 4 are solved by formulas (Cardano, Ferrari).
 Equation of degree 5: x⁵ + ax⁴ + bx³ + cx² + dx + e = 0

   For almost 300 years people searched for a formula. Galois (at age 20) proved: it does not exist.

 How? He connected the equation with the group of permutations of its roots:
   If this group is "solvable" → a formula exists.
   The permutation group of 5 elements is not solvable → there is no formula.

 Thus group theory was born — from the question about solving equations.

-------------------------------------------------------------------------------
Physical view: degrees of freedom of a rigid body
-------------------------------------------------------------------------------

 Take any object — a book, a stone, a molecule.
 What motions are possible with it, if it cannot be deformed?

 Translations: can be moved to any point in space.
         Three directions: forward-backward, left-right, up-down → 3 numbers.

 Rotations: can be rotated around any axis.
           Axis (2 parameters) + angle (1 parameter) → 3 numbers.

 Total: 6 parameters. The position of a rigid body is described by 6 numbers.
        Not 5, not 7 — exactly 6. This is a fact about the structure of space ℝ³.

 The set of all such motions is called SE(3) — the special Euclidean
 group.

-------------------------------------------------------------------------------
 Why this is a group — properties of motions
-------------------------------------------------------------------------------

 Motions possess certain properties:

 1. Two motions in succession — also a motion
    First translate, then rotate — we get some motion.
    We don't go outside SE(3).

 2. The order of grouping doesn't matter
    (A then B) then C = A then (B then C)
    This is a property of composition of any mappings.

 3. There is "do nothing"
    The identity motion — leave everything in place.

 4. Any motion can be undone
    Shifted 3 meters to the right → shift 3 meters to the left.
    Rotated by 30° → rotate by −30°.

 These four properties are the axioms of a group.
 They are not invented, but follow from the nature of the notion "motion".

-------------------------------------------------------------------------------
 Different constraints — different groups
-------------------------------------------------------------------------------

 What motions are "allowed" depends on what needs to be preserved:

 +-------------------+------------+---------------------------------+
 | WHAT WE PRESERVE  | GROUP      | WHERE IT OCCURS                 |
 +-------------------+------------+---------------------------------+
 | Distances and angles | E(3)    | Rigid body (with reflections)   |
 | + orientation     | SE(3)      | Rigid body (without reflections)|
 | Only angles       | Conformal  | Cartography, complex analysis   |
 | Parallelness      | Aff(3)     | Shadows in sunlight             |
 | Only straightness | PGL(3)     | Perspective in painting         |
 | Volume            | SL(3)      | Incompressible fluid            |
 | Linearity         | GL(3)      | Any linear deformation          |
 +-------------------+------------+---------------------------------+

 Fewer constraints → larger group:
   Linear:  SO(3) ⊂ O(3) ⊂ SL(3) ⊂ GL(3)
   Affine:  SE(3) ⊂ E(3) ⊂ Aff(3)
   Connection: GL(3) ⊂ Aff(3), but E(3) ⊄ GL(3) (isometries include translations)

 This is a classification: the group describes what transformations are possible.

-------------------------------------------------------------------------------
 Only rotations — the group SO(3)
-------------------------------------------------------------------------------

 If an object is fixed at one point (top, gyroscope, satellite),
 only rotations remain. This is the group SO(3).

   SO(3) = { rotations of ℝ³ around the origin }
         = { orthogonal matrices 3×3 with det = +1 }

 Dimension: 3 (three Euler angles, or axis + angle).

 Important fact: SO(3) — a non-abelian group.

   Rotate around X, then around Y  ≠  rotate around Y, then around X

   You can check with a book:
   1) place the book, rotate by 90° around the vertical, then
      by 90° around the horizontal axis "away from you"
   2) do it in reverse order
   The results are different.

 This is not an abstraction — satellite control must take this into account.

-------------------------------------------------------------------------------
 Discrete symmetries — finite groups
-------------------------------------------------------------------------------

 Not all objects allow any rotations.
 A salt crystal (cube) looks the same only under certain rotations.

 Symmetries of a square — the group D₄:

    1---2     Original         4---1    Rotation by 90°
    |   |     square           |   |    clockwise
    |   |                      |   |
    4---3                      3---2

 Possible transformations:
   • 4 rotations: by 0°, 90°, 180°, 270°
   • 4 reflections: with respect to horizontal, vertical, two diagonals

 Total 8 elements. Not 7, not 9 — exactly 8.
 This is the complete answer to the question "what are the symmetries of a square".

 Symmetries of regular polyhedra
 +----------------------+--------+----------------------+
 | POLYHEDRON           | GROUP  | NUMBER OF SYMMETRIES |
 +----------------------+--------+----------------------+
 | Tetrahedron          | Td     | 24                   |
 | Cube / Octahedron    | Oh     | 48 (they are dual)   |
 | Dodecahedron / Icosahedron | Ih | 120                |
 +----------------------+--------+----------------------+

 The cube and octahedron have the same symmetry group — they are "geometrically
 equivalent" in the sense of symmetries (dual polyhedra).


===============================================================================
Group — motivation and examples
===============================================================================

 Visualization: symmetries of the square


    1---2     Initial          2---3    90° rotation     3---4   180° rotation
    |   |     square           |   |    counterclockwise |   |
    |   |                      |   |                     |   |
    4---3                      1---4                     2---1

    2---1     Reflection       4---3    Reflection       Total 8 symmetries:
    |   |     (vert. axis)     |   |    (horiz. axis)    • 4 rotations
    |   |                      |   |                     • 4 reflections
    3---4                      1---2

   Any two symmetries can be combined → result is a symmetry.
   Each symmetry has an inverse (return back).
   There is an identity symmetry (do nothing).

   This is the group D₄ — the dihedral group (symmetries of the square).

-------------------------------------------------------------------------------
 Group as a set of transformations
-------------------------------------------------------------------------------

 A group formalizes the notion of "set of invertible transformations".

 +------------------+-------------------------------------------------+
 | AXIOM            | MEANING IN TERMS OF TRANSFORMATIONS             |
 +------------------+-------------------------------------------------+
 | Closure          | Composition of two transformations — transform. |
 | Associativity    | (f∘g)∘h = f∘(g∘h)                                 |
 | Neutral el.      | Identity transformation id                      |
 | Inverse element  | Each transformation is invertible               |
 +------------------+-------------------------------------------------+

 Definition: Symmetry group of object X — set of all bijections X → X,
              preserving the structure of X.


 Necessity of axioms
+-----------------+---------------------------------------------------+
| AXIOM           | WHY NECESSARY                                     |
+-----------------+---------------------------------------------------+
| Composition     | Sequential application of symmetries — symmetry   |
| Neutral         | Identity mapping preserves structure              |
| Inverse         | Inverse of a symmetry — symmetry                  |
| Associativity   | Follows from associativity of function composition|
+-----------------+---------------------------------------------------+

===============================================================================
Formal definition
===============================================================================

-------------------------------------------------------------------------------
 Definition of group
-------------------------------------------------------------------------------

 Group (G, ·) — set G with binary operation · : G × G → G,
 satisfying axioms:

 Notation remark: (G, ·) denotes a tuple (ordered pair),
 where the first element — carrier set, second — operation (signature).
 This is not the same as the pair {{G}, {G, ·}} from set theory.
 Here brackets mean "structure = carrier + operations".

   +-----------------+-------------------+-----------------------+
   | AXIOM           | FORMULA           | MEANING               |
   +-----------------+-------------------+-----------------------+
   |                 |                   |                       |
   | G1. Closure     | ∀a,b ∈ G: a·b ∈ G | Result — element of G |
   |                 |                   |                       |
   | G2. Associa-    | ∀a,b,c ∈ G:       | Brackets don't matter |
   | tivity          | (a·b)·c = a·(b·c) |                       |
   |                 |                   |                       |
   | G3. Neutral     | ∃e ∈ G: ∀a ∈ G:   | "Do nothing"          |
   | element         | e·a = a·e = a     |                       |
   |                 |                   |                       |
   | G4. Inverse     | ∀a ∈ G ∃a⁻¹ ∈ G:  | Everything cancels    |
   | element         | a·a⁻¹ = a⁻¹·a = e |                       |
   |                 |                   |                       |
   +-----------------+-------------------+-----------------------+

 Remarks:
   • Neutral element is unique
   • Inverse element for each a is unique
   • (a⁻¹)⁻¹ = a
   • (a·b)⁻¹ = b⁻¹·a⁻¹  (order reverses)

-------------------------------------------------------------------------------
 Abelian vs non-abelian groups
-------------------------------------------------------------------------------

 Abelian group: ∀a,b: a·b = b·a (commutativity)

+----------------------------+-------------------------------------------+
| ABELIAN (order irrelevant) | NON-ABELIAN (order matters)               |
+----------------------------+-------------------------------------------+
|                            |                                           |
| (ℤ, +): 2+3 = 3+2          | D₄: rotation∘reflection ≠ reflection∘rotation |
| (ℝ, +): π+e = e+π          | Sₙ (n≥3): permutations                    |
| (ℝ*, ×): 2×3 = 3×2         | GL(n): matrices AB ≠ BA                   |
| (ℤ/n, +): cyclic           | SO(3): rotations in 3D                    |
|                            |                                           |
+----------------------------+-------------------------------------------+

===============================================================================
Examples of Groups — in Detail
===============================================================================

 Example 1: Integers (ℤ, +)


 Set: ℤ = {..., -2, -1, 0, 1, 2, 3, ...}
 Operation:  addition +

 Checking axioms:

   G1. Closure:   a + b ∈ ℤ for any a, b ∈ ℤ               ✓
                      (sum of integers — integer)

   G2. Associativity: (a+b)+c = a+(b+c)                         ✓
                        (2+3)+4 = 5+4 = 9
                        2+(3+4) = 2+7 = 9

   G3. Identity:   e = 0,  because a + 0 = 0 + a = a       ✓

   G4. Inverse:      a⁻¹ = −a,  because a + (−a) = 0         ✓

 Additionally: a + b = b + a  →  Abelian group

 Visualization: Shifts along the number line

     ←----------●----------→
     ... -2  -1  0  1  2  3 ...

     +3 = "shift right by 3"
     −2 = "shift left by 2"
      0 = "stay in place"


 Example 2: Cyclic group ℤ/n (or ℤₙ)


 Set: ℤ/n = {0, 1, 2, ..., n−1}
 Operation:  addition modulo n

 Example: ℤ/4 = {0, 1, 2, 3} — "clock arithmetic" with 4 divisions

     Cayley table (group multiplication table):

       +  |  0    1    2    3
     -----+--------------------
       0  |  0    1    2    3       0 — identity element
       1  |  1    2    3    0       (row and column for 0
       2  |  2    3    0    1        coincide with headers)
       3  |  3    0    1    2

   Check: 2 + 3 = 5 mod 4 = 1  ✓ (see table)
             3 + 3 = 6 mod 4 = 2  ✓

 Visualization:                   Identity: e = 0
                                 Inverses:
        0                          0⁻¹ = 0  (0+0=0)
     3     1                       1⁻¹ = 3  (1+3=4≡0)
        2                          2⁻¹ = 2  (2+2=4≡0)
                                   3⁻¹ = 1  (3+1=4≡0)
   Shifts around a circle of 4 points

 Generator: Element g whose powers give the entire group.
            In ℤ/4: g = 1, because 1, 1+1=2, 1+1+1=3, 1+1+1+1=0
            Also g = 3 works: 3, 3+3=2, 3+3+3=1, 3+3+3+3=0
            But g = 2 doesn't work: 2, 2+2=0, 2+2+2=2, ... (not all elements)


 Example 3: Symmetries of equilateral triangle D₃


 Symmetries of triangle — all ways to place it "in the same manner":

         1
        /\              Rotations:   e  = don't rotate
       /  \                         r  = by 120° counterclockwise
      /    \                        r² = by 240° (= r∘r)
     /______\
    3        2          Reflections:  s₁ = with respect to altitude from 1
                                    s₂ = with respect to altitude from 2
                                    s₃ = with respect to altitude from 3

 Total 6 elements: D₃ = {e, r, r², s₁, s₂, s₃}

     Cayley table (composition: first column, then row):

       ∘   |  e    r    r²   s₁   s₂   s₃
     ------+------------------------------
       e   |  e    r    r²   s₁   s₂   s₃
       r   |  r    r²   e    s₃   s₁   s₂
       r²  |  r²   e    r    s₂   s₃   s₁
       s₁  |  s₁   s₂   s₃   e    r    r²
       s₂  |  s₂   s₃   s₁   r²   e    r
       s₃  |  s₃   s₁   s₂   r    r²   e

 Observations:
   • r ∘ s₁ = s₃,  but  s₁ ∘ r = s₂  →  non-abelian
   • Subgroup of rotations {e, r, r²} ≅ ℤ/3 — abelian
   • Each reflection: sᵢ² = e (apply twice = nothing)

 Physical meaning: D₃ describes the symmetry of a molecule with triangular structure
                   (for example, BF₃ — boron trifluoride)


 Example 4: Permutation groups Sₙ


 Sₙ = all permutations of n elements
 |Sₙ| = n! elements

 Example: S₃ — all permutations of {1, 2, 3}

   Notation:  σ = (σ(1), σ(2), σ(3))

     e   = (1, 2, 3)  — identity permutation
     σ₁  = (1, 3, 2)  — swaps 2 and 3
     σ₂  = (3, 2, 1)  — swaps 1 and 3
     σ₃  = (2, 1, 3)  — swaps 1 and 2
     σ₄  = (2, 3, 1)  — cyclic shift 1→2→3→1
     σ₅  = (3, 1, 2)  — cyclic shift 1→3→2→1

 Composition: (σ ∘ τ)(x) = σ(τ(x))  — first τ, then σ

 Cycle notation (more compact):
   σ₃ = (1 2) — transposition (swaps 1↔2, rest in place)
   σ₄ = (1 2 3) — 3-cycle (1→2, 2→3, 3→1)

 Fact: S₃ ≅ D₃ (permutation group of 3 elements is isomorphic to symmetries of △)

 Critically important:
   S₅ — unsolvable group (its normal series does not reach {e}
   through abelian factors). By the Abel–Ruffini theorem this means
   that the quintic equation is not solvable by radicals.


 Example 5: Nonzero real numbers (ℝ*, ×)


 Set: ℝ* = ℝ \ {0} = all reals except zero
 Operation:  multiplication ×

 Checking axioms:

   G1. Closure:   a × b ∈ ℝ* for a, b ≠ 0                    ✓
                      (product of nonzero is nonzero)

   G2. Associativity: (a×b)×c = a×(b×c)                         ✓

   G3. Identity:   e = 1,  because a × 1 = 1 × a = a       ✓

   G4. Inverse:      a⁻¹ = 1/a,  because a × (1/a) = 1       ✓
                      (this is why 0 is excluded — it has no inverse)

 Why (ℝ, ×) is not a group:
   0 × (anything) = 0,  but 0 × ? = 1 has no solution.
   Zero has no inverse element.


 What is not a group — counterexamples

+-----------------+-----------------------+--------------------+
| STRUCTURE       | Why not a group       | How to fix         |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℕ, +)          | No inverses:          | → (ℤ, +) add       |
| natural numbers | 3 + ? = 0 unsolvable  | negatives          |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℤ, ×)          | Inverses not integer: | → (ℚ*, ×) switch   |
| integers        | 2⁻¹ = ½ ∉ ℤ           | to rationals       |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| (ℝ, ×)          | 0 has no inverse      | → (ℝ*, ×) remove 0 |
| real numbers    | 0 × ? = 1 unsolvable  |                    |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+
|                 |                       |                    |
| n×n matrices    | det=0 → no inverse    | → GL(n) only       |
| with ×          |                       | invertible (det≠0) |
|                 |                       |                    |
+-----------------+-----------------------+--------------------+

===============================================================================
Subgroups
===============================================================================

 Definition:
 H ≤ G is called a subgroup of G (notation ≤, not ⊆), if H is a group
 with respect to the same operation (inherited from G).

 Notation H ≤ G is standard for subgroups, H ⊆ G — for subsets.

 Subgroup criterion (convenient for verification):

   +-----------------------------------------+
   | H ≤ G  ⟺  H ≠ ∅  and  ∀a,b ∈ H: a·b⁻¹ ∈ H |
   +-----------------------------------------+

 (One condition instead of four axioms)

 Why it works:
   • H ≠ ∅ ⇒ ∃a ∈ H ⇒ a·a⁻¹ = e ∈ H  (neutral exists)
   • e ∈ H ⇒ e·b⁻¹ = b⁻¹ ∈ H  (inverses exist)
   • a, b⁻¹ ∈ H ⇒ a·(b⁻¹)⁻¹ = a·b ∈ H  (closure)

-------------------------------------------------------------------------------
 Examples of subgroups
-------------------------------------------------------------------------------

   Group               subgroup                     notation
-------------------------------------------------------------------------------
   (ℤ, +)              Even numbers 2ℤ              2ℤ < ℤ
                       Multiples of 3: 3ℤ           3ℤ < ℤ
                       Multiples of n: nℤ           nℤ < ℤ

   (ℝ*, ×)             Positive ℝ⁺                  ℝ⁺ < ℝ*
                       {1, −1}                      {±1} < ℝ*

   D₄ (symmetries □)   Rotations {e, r, r², r³}     ≅ ℤ/4
                       {e, r²}                      ≅ ℤ/2
                       {e, s} for any reflection    ≅ ℤ/2

   GL(n) (invertible   SL(n) = {A : det A = 1}      special linear group
   matrices)           O(n) = {A : AᵀA = I}         orthogonal group
                       SO(n) = O(n) ∩ SL(n)         special orthogonal
-------------------------------------------------------------------------------
 Trivial subgroups:
   {e} — trivial subgroup (exists in any group)
   G — the group itself (improper subgroup)

-------------------------------------------------------------------------------
 Lagrange's Theorem
-------------------------------------------------------------------------------

   +---------------------------------------------------------------------+
   |  If G is a finite group and H is a subgroup of G, then:             |
   |                                                                     |
   |              |H| divides |G|                                        |
   |                                                                     |
   |  Moreover: |G| = |H| × [G : H], where [G : H] is the subgroup index|
   +---------------------------------------------------------------------+

 Corollaries:

   • The order of an element divides the order of the group
     (order of element a = smallest n: aⁿ = e)

   • A group of prime order p is cyclic
     (no other subgroups except {e} and G)

   • In S₄ (24 elements) subgroups can have order
     1, 2, 3, 4, 6, 8, 12, 24 (divisors of 24)
     Subgroups of order 5 or 7 are impossible


===============================================================================
Homomorphisms and Isomorphisms
===============================================================================

 Homomorphism — a mapping that preserves structure


 A mapping φ: G → H is called a group homomorphism if:

   +---------------------------------------------+
   | ∀a, b ∈ G:   φ(a · b) = φ(a) ∗ φ(b)         |
   |                                             |
   | "Image of product = product of images"      |
   +---------------------------------------------+

 Properties (follow automatically):
   • φ(eG) = eH            (image of neutral is neutral)
   • φ(a⁻¹) = φ(a)⁻¹       (image of inverse is inverse)

 Examples of homomorphisms:
 +-------------------------+-------------------------------------+
 | HOMOMORPHISM            | VERIFICATION: φ(a·b) = φ(a)*φ(b)    |
 +-------------------------+-------------------------------------+
 | exp: (ℝ,+) → (ℝ⁺,×)     | exp(a+b) = exp(a)×exp(b) ✓          |
 | det: (GL(n),×) → (ℝ*,×) | det(AB) = det(A)×det(B) ✓           |
 | sign: (Sₙ,∘) → ({±1},×) | sign(σ∘τ) = sign(σ)×sign(τ) ✓       |
 | mod n: (ℤ,+) → (ℤ/n,+)  | (a+b) mod n = (a mod n)+(b mod n) ✓ |
 +-------------------------+-------------------------------------+

-------------------------------------------------------------------------------
 Kernel and image
-------------------------------------------------------------------------------

 For homomorphism φ: G → H:

 +---------+------------------------+------------------------+
 | CONCEPT | DEFINITION             | PROPERTIES             |
 +---------+------------------------+------------------------+
 | Ker(φ)  | {a ∈ G : φ(a) = eH}    | Normal subgroup of G   |
 | (kernel)| What maps to neutral   | φ inject. ⟺ Ker={e}    |
 +---------+------------------------+------------------------+
 | Im(φ)   | {φ(a) : a ∈ G} ⊆ H     | Subgroup of H          |
 | (image) | Where G maps to        | φ surject. ⟺ Im=H      |
 +---------+------------------------+------------------------+

 Example: φ: ℤ → ℤ/6,  φ(k) = k mod 6
   Ker(φ) = 6ℤ = {..., −12, −6, 0, 6, 12, ...}
   Im(φ)  = ℤ/6 = {0, 1, 2, 3, 4, 5}

-------------------------------------------------------------------------------
★ First Isomorphism Theorem — fundamental result
-------------------------------------------------------------------------------

 Theorem: For any homomorphism φ: G → H the following holds:

                        G / Ker(φ)  ≅  Im(φ)

 Geometric intuition:

        G                           H
   +-------------+             +-------------+
   |  ○ ○ ○ ○    |     φ       |             |
   |  | | | |    | ---------▶  |   ●   ●     |   Im(φ) — where we landed
   |  ○ ○ ○ ○    |             |   |   |     |
   |  | | | |    |             |   ●   ●     |
   |  ○ ○ ○ ○    |             |             |
   +-------------+             +-------------+
       ↓
   Glue elements
   with the same image
       ↓
   +---------+
   |  ◉   ◉  |  G/Ker(φ)  — cosets
   |  ◉   ◉  |  (elements mapping to one point are glued)
   +---------+

 Meaning: "Factorization by kernel removes everything redundant and leaves only the image"

 Factor group G/H is the quotient set G/∼, where
 equivalence relation ∼ is defined as g₁ ∼ g₂ ⟺ g₁g₂⁻¹ ∈ H.
 Key condition: for the group operation to be well-defined on G/∼,
 subgroup H must be normal (gHg⁻¹ = H for all g ∈ G).

 Example: φ: ℤ → ℤ/6,  k ↦ k mod 6

   Ker(φ) = 6ℤ = {..., -6, 0, 6, 12, ...}
   Im(φ)  = ℤ/6

   Theorem: ℤ / 6ℤ ≅ ℤ/6  ✓
            (factor group by kernel is isomorphic to image)


 Isomorphism — when groups are "the same"


 Isomorphism φ: G → H — homomorphism + bijection. We write G ≅ H.
 "G and H — one group, differ only by names of elements"

 +-------------------+--------------------+--------------------------+
 | ISOMORPHISM       | MAPPING            | WHY IT WORKS             |
 +-------------------+--------------------+--------------------------+
 | (ℤ, +) ≅ (2ℤ, +)  | φ(n) = 2n          | Even ↔ all integers      |
 | (ℝ, +) ≅ (ℝ⁺, ×)  | φ = exp, φ⁻¹ = ln  | Addition ↔ multiplication|
 | ℤ/6 ≅ ℤ/2 × ℤ/3   | k ↦ (k mod2, mod3) | Chinese remainder thm    |
 | S¹ ≅ U(1) ≅ SO(2) | eⁱᶿ ↔ rotation by θ| Circle ≅ rotations       |
 +-------------------+--------------------+--------------------------+

   ℤ/2 ≅ {±1}                         (two elements, one structure)
        φ(0) = 1,  φ(1) = −1

   S₃ ≅ D₃                            (6 elements, symmetries of △)

 Non-isomorphic:

   ℤ/4 ≇ ℤ/2 × ℤ/2                   (different structure)
        In ℤ/4 there is an element of order 4 (generator).
        In ℤ/2 × ℤ/2 all elements have order ≤ 2.


===============================================================================
Groups in physics and life
===============================================================================

 Applications of groups
+-----------------------+-------------------+----------------------------------+
| FIELD                 | GROUP             | WHAT IT DESCRIBES                |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Crystallography       | 230 space groups  | All crystal symmetries           |
|                       |                   | NaCl: cubic symm. → optics       |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Standard model        | U(1)              | Electromagnetism (phase)         |
| of particle physics   | SU(2)             | Weak interaction                 |
|                       | SU(3)             | Strong interaction (quarks)      |
|                       | U(1)×SU(2)×SU(3)  | Entire Standard model            |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Relativity theory     | SO(3,1)           | Lorentz: preserves speed of light|
|                       |                   | 3 space + 1 time                 |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Quantum mechanics     | SU(2)             | Particle spin                    |
|                       |                   | e⁻: spin ½ → rotation 720°.      |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Music                 | ℤ/12              | 12 semitones, transposition      |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Cryptography          | (ℤ/n)*            | RSA: multiplicative group        |
|                       | Elliptic curves   | Groups of points on curves       |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Thermal physics       | Similarity group  | Dimensional analysis = Lie groups|
| (example for engineer)| (scaling)         |                                  |
|                       |                   | Finding formula Nu = f(Re, Pr)   |
|                       |                   | = choosing Lie group orbit by    |
|                       |                   | values of invariants (Re, Pr)    |
|                       |                   |                                  |
|                       |                   | Phys.quantities (α, λ, v, L) —   |
|                       |                   | coordinates on manifold,         |
|                       |                   | symmetric with respect to        |
|                       |                   | action of scaling group          |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+
|                       |                   |                                  |
| Combinatorics         | Any G             | Counting "up to symmetry"        |
|                       |                   | Burnside's lemma                 |
|                       |                   |                                  |
+-----------------------+-------------------+----------------------------------+

 Sylow theorems — structure of finite groups

 Let |G| = pⁿ·m, where p is prime and gcd(p, m) = 1.

 Sylow subgroup: subgroup of order pⁿ (maximal p-power)

-------------------------------------------------------------------------------
Theorem 1: Sylow subgroup exists
-------------------------------------------------------------------------------
   For any prime p dividing |G|, there exists a subgroup of order pⁿ.

-------------------------------------------------------------------------------
 Theorem 2: All Sylow subgroups are conjugate
-------------------------------------------------------------------------------
   Any two p-Sylow subgroups P and Q are related: Q = gPg⁻¹ for some g.

-------------------------------------------------------------------------------
 Theorem 3: The number of Sylow subgroups nₚ satisfies
-------------------------------------------------------------------------------
   • nₚ ≡ 1 (mod p)
   • nₚ divides m = |G|/pⁿ

 Application — classification of small groups:

   |G| = 15 = 3·5:  n₃ | 5 and n₃ ≡ 1 (mod 3) ⇒ n₃ = 1
                    n₅ | 3 and n₅ ≡ 1 (mod 5) ⇒ n₅ = 1
                    Unique Sylow subgroups ⇒ normal ⇒ G ≅ ℤ₁₅

   Sylow theorems — powerful tool: from the size of a group one can derive
   its structure.


 Where it leads — connection with other areas
+----------------------+---------------+------------------------------+
| DIRECTION            | CONNECTION    | IDEA                         |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Lie groups           | → (manifolds) | Group + smooth structure     |
|                      |               | SO(3), SU(2), GL(n)          |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Representation theory| → (lin.alg.)  | g ↦ matrix ρ(g)              |
|                      |               | Group through lin. algebra   |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Noether's theorem    | → (DE)        | Symmetry → conservation law  |
|                      |               | Shift t → energy             |
|                      |               | Rotation → angular momentum  |
|                      |               |                              |
+----------------------+---------------+------------------------------+
|                      |               |                              |
| Fund. group π₁       | → (topology)  | Loops form a group           |
|                      |               | Classification of spaces     |
|                      |               |                              |
+----------------------+---------------+------------------------------+

-------------------------------------------------------------------------------
Summary: hierarchy of algebraic structures
-------------------------------------------------------------------------------

 From simple to complex


   Set
       |
       | + one operation + group axioms
       ↓
   Group (G, ·)
       |
       | + commutativity
       ↓
   Abelian group
       |
       | + second operation with distributivity
       ↓
   Ring (R, +, ×)
       |
       | + inverses for ×
       ↓
   Field (F, +, ×) ← multiplication commutative

       Important: Field = commutative multiplication (ab = ba).
       If we remove commutativity ⇒ Division Ring.
       Example of division ring: Quaternions ℍ (ij ≠ ji).

   Further — another type of object (not "special case of field",
   but new set V with action of field F on it):

   Set V + field F + addition in V + multiplication by scalars from F
       ↓
   Vector space (V over F)
       |
       | + norm ‖·‖
       ↓
   Normed space
       |
       | + completeness (all limits exist)
       ↓
   Banach space
       |
       | + inner product (‖x‖² = ⟨x,x⟩)
       ↓
   Hilbert space

 Each level inherits structure from previous + adds new.

-------------------------------------------------------------------------------
 Main idea
-------------------------------------------------------------------------------

   Group = minimal structure for describing symmetries.

   If you can:
     • Combine transformations (composition)
     • Do nothing (neutral)
     • Undo actions (inverse)

   — we have a group.

   Symmetries of an object determine its properties.
   Symmetry group is the "DNA" of an object.

-------------------------------------------------------------------------------
 Applied example: turbine rotor balancing
-------------------------------------------------------------------------------

 Problem: Turbine rotor with 6 blades. During rotation vibration occurs.
 Need to understand which blade defects cause which vibration frequencies.

                     ●
                    /|\        Symmetry group of rotor:
                  ╱  |  ╲      C₆ = {e, r, r², r³, r⁴, r⁵}
                ●    |    ●    where r = rotation by 60°
                |    ○    |
                ●    |    ●    This is cyclic group of order 6
                  ╲  |  ╱
                    \|/
                     ●

 Key fact: Rotor vibration decomposes by representations of group C₆

 +-----------------+---------------------+---------------------------------+
 | REPRESENTATION  | PHYSICAL MEANING    | VIBRATION FREQUENCY             |
 +-----------------+---------------------+---------------------------------+
 | Trivial         | All blades equally  | No vibration (perfect balance)  |
 | (symmetric)     | deflected           |                                 |
 +-----------------+---------------------+---------------------------------+
 | Alternating     | Alternation ±       | f = 3 × rev/s (3-fold)          |
 |                 | "every other"       |                                 |
 +-----------------+---------------------+---------------------------------+
 | 2-dimensional   | Imbalance "wave"    | f = n × rev/s (1×, 2×)          |
 | representations | around circumference|                                 |
 +-----------------+---------------------+---------------------------------+

 Practical application:
   • If vibration at frequency 1× rev/s → static imbalance (one blade)
   • If vibration at frequency 2× rev/s → pair of opposite blades
   • If vibration at frequency 3× rev/s → every second blade

 Group theory allows classification of imbalance types before measurements

-------------------------------------------------------------------------------
Another example: three-phase electrical network
-------------------------------------------------------------------------------

 Three phases: A, B, C with 120° shift

 Symmetry group: C₃ = {e, r, r²} where r = phase shift by 120°

   • Symmetric load (all phases identical) → current in neutral = 0
   • Symmetry violation → current in neutral ≠ 0

 Method of symmetrical components (Fortescue): decomposition of asymmetric
 system into symmetric components — this is decomposition by representations of C₃.


===============================================================================
Hierarchy of algebraic structures
===============================================================================

-------------------------------------------------------------------------------
 Why different structures are needed
-------------------------------------------------------------------------------

 Each structure — answer to the question: "What do we want to be able to do?"

   Want to add                         → Semigroup
   + there is "zero"                   → Monoid
   + can subtract                      → Group
   + order doesn't matter              → Abelian group
   + can multiply                      → Ring
   + can divide (except by 0)          → Field

 The more operations — the more we can do, but the fewer examples.

-------------------------------------------------------------------------------
 Hierarchy: what is added at each step
-------------------------------------------------------------------------------

  Semigroup ------→ monoid ------→ group ------→ abelian group
       |                |              |                  |
   associativity    + identity    + inverses      + commutativity
   a(bc)=(ab)c        a·e=a       a·a⁻¹=e           ab=ba
       |                |              |                  |
   Example:         Example:       Example:          Example:
   (ℕ⁺, ·)          (ℕ, +, 0)     (ℤ, +, 0)         (ℤ, +)


  Abelian group ------→ ring ------→ field
         |                   |             |
     (one operation)   + multiplication  + division
                       distributive      (except 0)
                       a(b+c)=ab+ac    a≠0 ⇒ ∃a⁻¹
         |                   |             |
     Example:            Example:       Example:
     (ℤ, +)              (ℤ, +, ×)     (ℚ, +, ×)


 Where encountered in real life
+------------+---------------------------------------------------+
| STRUCTURE  | EXAMPLES                                          |
+------------+---------------------------------------------------+
|            |                                                   |
| Semigroup  | String concatenation "abc"+"def"="abcdef"         |
|            | (actually monoid — there is empty string "")      |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Monoid     | (ℕ, +, 0) — naturals with zero. Cannot subtract. |
|            | Functions with composition ∘ and identity id      |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Group      | Symmetries (everything can be undone)             |
|            | Cryptography: elliptic curves, RSA                |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Ring       | Polynomials ℤ[x] — can +,−,×, but not ÷          |
|            | Matrices n×n — not every one is invertible        |
|            | Integers ℤ — 5÷2 is not an integer.               |
|            |                                                   |
+------------+---------------------------------------------------+
|            |                                                   |
| Field      | ℚ, ℝ, ℂ — everything possible: +,−,×,÷           |
|            | Finite fields 𝔽ₚ — cryptography, codes            |
|            |                                                   |
+------------+---------------------------------------------------+

Summary table:
+----------------+--------+---------+----------+-----------+---+---------+
| STRUCTURE      | ASSOC. | IDENTITY| INVERSES | COMMUTAT. | × | DIVISION|
+----------------+--------+---------+----------+-----------+---+---------+
| Semigroup      | ✓      |         |          |           |   |         |
| Monoid         | ✓      | ✓       |          |           |   |         |
| Group          | ✓      | ✓       | ✓        |           |   |         |
| Abelian group  | ✓      | ✓       | ✓        | ✓         |   |         |
| Ring           | ✓      | ✓       | ✓        | (+)       | ✓ |         |
| Field          | ✓      | ✓       | ✓        | ✓✓        | ✓ | ✓       |
+----------------+--------+---------+----------+-----------+---+---------+

-------------------------------------------------------------------------------
Why this is important
-------------------------------------------------------------------------------

 When you see a new object, ask: "What structure is this?"

   • Matrices — ring (can multiply, cannot always divide)
   • Functions [0,1]→ℝ — vector space (over field ℝ)
   • Permutations — group (everything invertible)
   • Polynomials — ring (or even algebra over field)

 Knowing the structure — you know which theorems are applicable.


===============================================================================
Rings and fields — arithmetic + algebra
===============================================================================

-------------------------------------------------------------------------------
 Why does an engineer need this?
-------------------------------------------------------------------------------

 Rings and fields — this is not abstraction for the sake of abstraction. This is the foundation:

   • Cryptography: RSA works in ring ℤₙ (residues from division)
   • Error codes: QR codes, CD, internet — Galois fields GF(2⁸)
   • Discrete mathematics: hash functions, checksums
   • Signals: Z-transform — this is a ring of formal series

 Main idea: sometimes arithmetic is needed where numbers "wrap around"
 (like a clock: after 12 comes 1), or where division works differently.

Group — this is one operation. But in arithmetic there are two: addition and multiplication.
How to combine them?

-------------------------------------------------------------------------------
 Ring = two connected operations
-------------------------------------------------------------------------------

 Intuition: Ring — this is "arithmetic" where you can add, subtract,
 multiply, but not necessarily divide.

 Formally: a ring (R, +, ·) is a set R with two operations:

   • (R, +) — abelian group (addition works as usual)
   • (R, ·) — monoid (multiplication exists, but inverses may not be)
   • a·(b + c) = a·b + a·c  (distributivity — brackets expand)

 Examples:

   +-----------------+---------------------------------------+
   | Ring            | Why ring, not field                   |
   +-----------------+---------------------------------------+
   | ℤ (integers)    | 2 not invertible: 1/2 ∉ ℤ             |
   | ℤₙ (residues)   | If n not prime, there are zero divisors |
   | ℤ[x] (polynomials) | x not invertible: 1/x — not polynomial |
   | Mₙ(ℝ) (matrices) | Degenerate matrices not invertible   |
   +-----------------+---------------------------------------+

 Zero divisors — strangeness of rings:
   In ℤ₆:  2 · 3 = 6 = 0 (mod 6)
   Both factors nonzero, but product = 0.
   This does not happen in ordinary numbers — sign of structure "defect".

-------------------------------------------------------------------------------
 Field = Ring where you can divide
-------------------------------------------------------------------------------

 Intuition: Field — this is "full-fledged arithmetic" with division.
 Everything we were taught in school about numbers — these are properties of fields.

 Formally: Field — ring where each a ≠ 0 has inverse a⁻¹.

 Examples of fields:
   • ℚ (rationals) — minimal field containing ℤ
   • ℝ (reals) — completion of ℚ
   • ℂ (complex) — algebraically closed
   • ℤₚ = ℤ/pℤ for prime p — finite field (important for cryptography)
     (in modern literature often written 𝔽ₚ; the notation ℤ_p
     — with underscore — is reserved for p-adic integers)

 Why is ℤₚ — field for prime p?

   In ℤ₅: elements {0, 1, 2, 3, 4}

   Inverses: 1⁻¹ = 1,  2⁻¹ = 3 (because 2·3 = 6 = 1 mod 5)
             3⁻¹ = 2,  4⁻¹ = 4 (because 4·4 = 16 = 1 mod 5)

   Each nonzero element invertible. This is field.

 Why is ℤ₆ — not field?

   In ℤ₆: 2 · 3 = 0, so 2 and 3 — zero divisors.
   Zero divisor cannot be invertible (otherwise 0 = 2⁻¹·0 = 2⁻¹·2·3 = 3 ≠ 0).

 Theorem: ℤₙ — field ⟺ n prime.

-------------------------------------------------------------------------------
 Ideals — "divisibility" in abstract ring
-------------------------------------------------------------------------------

 Intuition: Ideal — this is generalization of concept "all numbers divisible by n".

 In ℤ: set of all numbers divisible by 3 — this is {…, -6, -3, 0, 3, 6, …}
      Notation: 3ℤ or (3)

 Key property: if a divisible by 3, then also a·k divisible by 3.
 "Divisibility absorbs multiplication" — this is definition of ideal.

 Formally: Ideal I ⊂ R — this is subset such that:
   • I — subgroup under addition
   • a ∈ I, r ∈ R  ⇒  r·a ∈ I  (multiplication by any element stays in I)

 Examples:

   +----------------+----------------------------------------+
   | RING           | EXAMPLES OF IDEALS                     |
   +----------------+----------------------------------------+
   | ℤ              | nℤ = {nk : k ∈ ℤ} — all ideals such    |
   | ℝ[x]           | (x² + 1) = all multiples (x² + 1)      |
   | C(X) (functions) | {f : f(x₀) = 0} — functions with zero at x₀ |
   +----------------+----------------------------------------+

 Why ideals?
   Ideals allow "gluing" elements of a ring — as normal subgroups
   allow gluing elements of a group. Result — quotient ring.

-------------------------------------------------------------------------------
Quotient Ring — "Arithmetic of Remainders"
-------------------------------------------------------------------------------

 Intuition: Quotient ring R/I is a "gluing" of elements differing
 by an element from I. As if everything from I became zero.

 Main example:

   ℤ/3ℤ = {0̄, 1̄, 2̄} — remainders from division by 3

   Here 0̄ = {..., -6, -3, 0, 3, 6, ...} (all multiples of 3 "glued" into 0)
        1̄ = {..., -5, -2, 1, 4, 7, ...}
        2̄ = {..., -4, -1, 2, 5, 8, ...}

   Arithmetic: 2̄ + 2̄ = 4̄ = 1̄,   2̄ · 2̄ = 4̄ = 1̄

 More profound example — how to construct ℂ:

   Problem: in ℝ there is no root of -1.
   Solution: ℂ = ℝ[x]/(x² + 1)

   Take polynomials in x with coefficients from ℝ.
   "Glue" all multiples of (x² + 1), that is, set x² + 1 = 0.
   Then x² = -1, and x plays the role of i.

   Elements: a + bx (higher powers reduce: x² → -1)
   This is precisely complex numbers a + bi.

-------------------------------------------------------------------------------
 Finite Fields — Cryptography and Codes
-------------------------------------------------------------------------------

 Theorem: A finite field exists if and only if the number
 of elements = pⁿ (power of a prime). Notation: GF(pⁿ) or 𝔽_{pⁿ}.

   • GF(2) = {0, 1} — binary arithmetic (XOR = addition)
   • GF(2⁸) = 256 elements — used in AES, QR codes
   • GF(p) = ℤₚ — simplest finite fields

 Example: GF(4) — field of 4 elements

   Cannot simply take ℤ₄ — there 2·2 = 0, zero divisors.

   Correct construction: GF(4) = GF(2)[x]/(x² + x + 1)
   Elements: {0, 1, x, x+1} with arithmetic mod 2 and mod (x² + x + 1)

   Multiplication table:
   +---+---+---+---+-------+------+
   | · | 0 |   1   |   x   |  x+1 |
   +---+---+---+---+-------+------+
   | 0 | 0 |   0   |   0   |   0  |
   | 1 | 0 |   1   |   x   |  x+1 |
   | x | 0 |   x   |  x+1  |   1  |   ← x² = x+1 (from x²+x+1=0)
   |x+1| 0 |  x+1  |   1   |   x  |
   +---+---+-------+-------+------+

 Application: Reed-Solomon codes (CD, DVD, QR) work over GF(2⁸).
 This allows correcting errors mathematically precisely.

-------------------------------------------------------------------------------
 Hierarchy: From Set to Field
-------------------------------------------------------------------------------

         Set (just elements)
              |
              ▼ + one operation
         Semigroup (associativity)
              |
              ▼ + neutral element
          Monoid
              |
              ▼ + inverse elements
          Group
              |
              ▼ + commutativity
       Abelian Group
              |
              ▼ + second operation (multiplication) + distributivity
          Ring (ℤ, ℤ[x], matrices)
              |
              ▼ + no zero divisors
     Integral Domain (ℤ)
              |
              ▼ + every nonzero invertible
           Field (ℚ, ℝ, ℂ, ℤₚ)

 At each step a property is added → structure becomes "better".
 Field — the most "nice" arithmetic structure.


===============================================================================
Number Theory — Arithmetic as Structure
===============================================================================

 Number Theory as a View on Space


 Numbers are not just objects for computation. Numbers form spaces
 with rich structure.

 +-------------------+------------------------+----------------------------+
 | SPACE             | STRUCTURE              | WHAT WE STUDY              |
 +-------------------+------------------------+----------------------------+
 | ℤ                 | Ring (+ and ×)         | Divisibility, prime numbers|
 |                   | + order                |                            |
 +-------------------+------------------------+----------------------------+
 | ℤₙ = ℤ/nℤ          | Finite ring            | Modular arithmetic         |
 | (remainders mod n)| When n=p — field.      | Cryptography               |
 +-------------------+------------------------+----------------------------+
 | ℚₚ (p-adic)       | Field with ultrametric | Local analysis             |
 |                   | |x+y|ₚ ≤ max(|x|ₚ,|y|ₚ)| Diophantine equations      |
 +-------------------+------------------------+----------------------------+
 | ℤ[i] (Gaussian)   | Ring in ℂ              | Sums of two squares        |
 |                   | Euclidean              |                            |
 +-------------------+------------------------+----------------------------+

 Key idea: The same number can be considered in different spaces

   Number 7:
     • In ℤ: prime, irreducible
     • In ℤ₇: zero (7 ≡ 0 mod 7)
     • In ℤ[i]: still prime (7 ≡ 3 mod 4, not a sum of two squares)
     • In ℤ[√-5]: remains prime

   Number 6 in ℤ[√-5]: two different factorizations.
     = 2 · 3 = (1+√-5)(1-√-5)
     This shows that in ℤ[√-5] there is no uniqueness of factorization.

 Number theory studies how arithmetic properties depend on
 the algebraic structure of the space.


Number theory studies properties of integers. This is one of the most ancient areas
of mathematics, but it is connected with the most modern ones: cryptography, algebraic
geometry, representation theory.

-------------------------------------------------------------------------------
Divisibility — basic concepts
-------------------------------------------------------------------------------

 a | b  means  "a divides b"  ⟺  ∃k ∈ ℤ: b = a·k

 +-------------------+---------------------------------------------------+
 | CONCEPT           | DEFINITION                                        |
 +-------------------+---------------------------------------------------+
 | GCD(a,b) = gcd    | Greatest common divisor                           |
 |                   | max{d : d|a and d|b}                              |
 +-------------------+---------------------------------------------------+
 | LCM(a,b) = lcm    | Least common multiple                             |
 |                   | min{m > 0 : a|m and b|m}                          |
 +-------------------+---------------------------------------------------+
 | Coprime           | gcd(a,b) = 1                                      |
 +-------------------+---------------------------------------------------+
 | Prime number p    | p > 1, divisors only 1 and p                    |
 +-------------------+---------------------------------------------------+

 Key relation:  gcd(a,b) · lcm(a,b) = a · b

-------------------------------------------------------------------------------
 Fundamental theorem of arithmetic
-------------------------------------------------------------------------------

 Each natural number n > 1 uniquely (up to order) factors into a product
 of primes:

   n = p₁^{a₁} · p₂^{a₂} · ... · pₖ^{aₖ}

 +---------------------+
 | Examples:           |
 | 60 = 2² · 3 · 5     |
 | 100 = 2² · 5²       |
 | 2024 = 2³ · 11 · 23 |
 +---------------------+

 Corollaries:

 +--------------------+--------------------------------------------------+
 | OPERATION          | THROUGH FACTORIZATION                            |
 +--------------------+--------------------------------------------------+
 | gcd(a,b)           | Product of p^{min(aₚ, bₚ)} over all p            |
 | lcm(a,b)           | Product of p^{max(aₚ, bₚ)} over all p            |
 | a | b              | aₚ ≤ bₚ for all p                                |
 | Number of divisors | (a₁+1)(a₂+1)···(aₖ+1)                            |
 +--------------------+--------------------------------------------------+

 Analogy with vectors:
   Number n ↔ vector (a₁, a₂, a₃, ...) — exponents of primes
   Multiplication ↔ vector addition
   gcd ↔ componentwise min
   lcm ↔ componentwise max

-------------------------------------------------------------------------------
 Congruences modulo — arithmetic of remainders
-------------------------------------------------------------------------------

 a ≡ b (mod n)  means  n | (a − b)  ⟺  a and b give the same remainder

 +----------------------------------------------------------------------+
 | PROPERTIES (congruences can be added, multiplied, raised to powers)  |
 +----------------------------------------------------------------------+
 | a ≡ b, c ≡ d  ⇒  a + c ≡ b + d (mod n)                               |
 | a ≡ b, c ≡ d  ⇒  a · c ≡ b · d (mod n)                               |
 | a ≡ b         ⇒  aᵏ ≡ bᵏ (mod n)                                     |
 +----------------------------------------------------------------------+

 Ring ℤₙ = {0, 1, 2, ..., n−1} with operations mod n

 +-------------+----------------------------------------------------+
 | n           | structure of ℤₙ                                    |
 +-------------+----------------------------------------------------+
 | n = p       | Field. Every nonzero element is invertible.        |
 | (prime)     | Example: ℤ₅, where 2·3 = 6 ≡ 1, so 2⁻¹ = 3         |
 +-------------+----------------------------------------------------+
 | n = pᵏ      | Local ring (unique maximal ideal)                  |
 +-------------+----------------------------------------------------+
 | n = p·q     | Has zero divisors. In ℤ₆: 2·3 = 0                  |
 | (composite) | But by CRT: ℤₙ ≅ ℤₚ × ℤ_q if gcd(p,q)=1             |
 +-------------+----------------------------------------------------+

 CRT (Chinese Remainder Theorem):
   If gcd(m,n) = 1, then ℤₘₙ ≅ ℤₘ × ℤₙ
   Practically: system x ≡ a (mod m), x ≡ b (mod n) has unique solution

-------------------------------------------------------------------------------
 Fermat's little theorem and Euler's function
-------------------------------------------------------------------------------

 φ(n) = Euler's function = count of numbers from 1 to n coprime with n

 +-------------+----------------+----------------------------------------+
 | n           | φ(n)           | FORMULA                                |
 +-------------+----------------+----------------------------------------+
 | p (prime)   | p − 1          | All except 0 coprime with p            |
 | pᵏ          | pᵏ − pᵏ⁻¹      | = pᵏ(1 − 1/p)                          |
 | m·n         | φ(m)·φ(n)      | if gcd(m,n) = 1 (multiplicative)       |
 | general     | n∏(1 − 1/p)    | product over all primes p | n          |
 +-------------+----------------+----------------------------------------+

 Theorems:
 +---------------------+--------------------------------------+
 | Fermat's little     | aᵖ ≡ a (mod p) for any a             |
 | theorem (p prime)   | If gcd(a,p)=1: aᵖ⁻¹ ≡ 1 (mod p)      |
 +---------------------+--------------------------------------+
 | Euler's theorem     | a^{φ(n)} ≡ 1 (mod n) if gcd(a,n)=1   |
 | (generalization)    | This generalizes Fermat to composite n |
 +---------------------+--------------------------------------+

 Application — RSA cryptography:
   Choose large primes p, q. Let n = p·q, φ(n) = (p−1)(q−1).
   Choose e coprime with φ(n), find d: e·d ≡ 1 (mod φ(n)).
   Encrypt: c = mᵉ mod n. Decrypt: m = cᵈ mod n.
   Works by Euler's theorem: m^{ed} = m^{1 + kφ(n)} ≡ m (mod n).

-------------------------------------------------------------------------------
P-adic numbers — alternative completion of ℚ
-------------------------------------------------------------------------------

 ℝ is the completion of ℚ with respect to the usual metric |x − y|.
 But there are other metrics on ℚ.

 p-adic norm:
   |x|ₚ = p^{−vₚ(x)}, where vₚ(x) = degree of p in the factorization of x

 +-------------------------------------------------------------------------+
 | Examples (p = 5):                                                       |
 |   |25|₅ = 5⁻² = 1/25    (25 = 5², many fives → small norm)              |
 |   |1/5|₅ = 5¹ = 5       (few fives in numerator)                        |
 |   |7|₅ = 5⁰ = 1         (no fives at all)                               |
 |   |0|₅ = 0                                                              |
 +-------------------------------------------------------------------------+

 +--------------------+--------------------+-----------------------------+
 | PROPERTY           | USUAL NORM |·|     | p-ADIC |·|ₚ                 |
 +--------------------+--------------------+-----------------------------+
 | Large numbers      | Far from 0         | Can be close to 0!          |
 | Triangle           | |x+y| ≤ |x|+|y|    | |x+y|ₚ ≤ max(|x|ₚ,|y|ₚ)      |
 |                    |                    | (Ultrametric — stronger)    |
 | Completion         | ℝ                  | ℚₚ (p-adic numbers)          |
 | Alg. closure       | ℂ (dim 2 over ℝ)   | ℂₚ (infinite-dimensional)   |
 +--------------------+--------------------+-----------------------------+

 Why is this needed:
   • Local-global principle: an equation has a solution in ℚ ⟺
     has a solution in ℝ and in all ℚₚ (with caveats)
   • Modern algebraic geometry works over all these fields
   • Number theory: many problems are easier to solve "locally" in ℚₚ


 Connection with other areas
 +--------------------+----------------------------------------------+
 | AREA               | CONNECTION WITH NUMBER THEORY                |
 +--------------------+----------------------------------------------+
 | Groups             | (ℤ/nℤ)* — group of invertible elements       |
 |                    | Order = φ(n), Lagrange's theorem → Euler     |
 +--------------------+----------------------------------------------+
 | Rings              | ℤ — principal ideal domain                   |
 |                    | Ideal (n) = nℤ, quotient ring = ℤₙ           |
 +--------------------+----------------------------------------------+
 | Fields             | 𝔽ₚ = ℤ/pℤ — finite field, extensions → codes  |
 |                    | ℚₚ — local field for arithmetic geometry     |
 +--------------------+----------------------------------------------+
 | Topology           | ℤ_p = lim ℤ/pⁿℤ — projective limit            |
 |                    | (p-adic integers; not to be confused with 𝔽ₚ) |
 |                    | Topology on ℤ_p: basis = classes mod pⁿ      |
 +--------------------+----------------------------------------------+
 | Complex analysis   | ζ(s) = Σ n⁻ˢ — Riemann zeta function          |
 |                    | Connects prime numbers and complex analysis  |
 +--------------------+----------------------------------------------+


 Galois theory — why there is no formula for roots of degree 5


 Quadratic equation is solved by a formula (known for ~2000 years).
 Cubic and quartic — also (Cardano, Ferrari, 16th century).
 For fifth degree Abel (1824) proved: there is no general formula.
 Galois (1832) explained why — and created group theory.

 Key idea:
   To each polynomial p(x) corresponds a group Gal(p) — the group of
   permutations of roots preserving all algebraic relations.

 Galois theorem:
   A polynomial is solvable by radicals (roots are expressible via +, −, ×, ÷, √)
   if and only if its Galois group is solvable.

 Why this works:
   Root extraction √ⁿ adds a "layer" of symmetry — a cyclic group ℤ/nℤ.
   Solvable group = can be decomposed into a "tower" of cyclic subgroups.
   Symmetric group S₅ is not solvable (contains simple group A₅).
   Therefore general polynomial of degree 5 is not solvable by radicals.

 Galois correspondence:

 +---------------------------+---------------------------+
 | SUBGROUPS Gal(p)          | INTERMEDIATE FIELDS       |
 +---------------------------+---------------------------+
 | Gal(p)                    | ℚ (base field)            |
 | {e} (trivial)             | Splitting field           |
 | Normal subgroup H ◁ G     | Normal extension          |
 +---------------------------+---------------------------+

 This bijective "dictionary" between groups and fields is one of the deepest
 ideas in mathematics: the problem of equations is solved through symmetries.


===============================================================================
Table of groups — systematics of symmetries
===============================================================================

 Group = symmetries of an object
 Problem: classify groups and their connections

 Hierarchy of groups


                       All groups
                      /          \
               Finite              Infinite
             /        \          /           \
        Abelian  Non-abelian  Discrete    Continuous
           |          |          |         (Lie groups)
        ℤ/n, ...  Sₙ, Dₙ, ...  ℤ, Fₙ, ...        |
                                      Compact / Non-compact
                                          |            |
                                     SO(n), SU(n)   ℝⁿ, GL(n)


Finite groups — complete classification exists

+-----------+---------+-----------------------------------------------+
| GROUP     | ORDER   | WHAT IT IS GEOMETRICALLY / CONNECTIONS        |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| {e}       | 1       | Trivial: "do nothing"                         |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| ℤ/n       | n       | Cyclic: rotations of n-gon                    |
|           |         | ≅ roots of unity: {1, ω, ω², ...}, ω = e^(2πi/n)|
|           |         | Abelian. ℤ/p (p prime) — simplest "atoms"     |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| ℤ/2 × ℤ/2 | 4       | Klein group: symmetries of rectangle          |
| (Klein    |         | not cyclic. (no element of order 4)           |
| four-group)|        |                                               |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Dₙ        | 2n      | Dihedral: rotations + reflections of n-gon    |
|           |         | D₃ ≅ S₃ (unique case)                         |
|           |         | Non-abelian for n ≥ 3                         |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Sₙ        | n!      | Symmetric: all permutations of n elements     |
|           |         | Any finite group ⊂ Sₙ (Cayley's theorem)      |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Aₙ        | n!/2    | Alternating: even permutations                |
|           |         | A₅ — simplest non-abelian simple group        |
|           |         | A₅ ≅ symmetries of icosahedron                |
|           |         |                                               |
+-----------+---------+-----------------------------------------------+
|           |         |                                               |
| Q₈        | 8       | Quaternion: {±1, ±i, ±j, ±k}                  |
|           |         | Non-abelian, but all subgroups are normal     |
|           |         | Connection with rotations in 3D (see quaternions)|
|           |         |                                               |
+-----------+---------+-----------------------------------------------+

Infinite discrete:

+--------+-------------------------------------------------+
| GROUP  | WHAT IT IS / CONNECTIONS                        |
+--------+-------------------------------------------------+
|        |                                                 |
| (ℤ, +) | Integers: shifts by integer along line          |
|        | π₁(S¹) = ℤ — fundamental group of circle.      |
|        | Unique infinite cyclic group                    |
|        |                                                 |
+--------+-------------------------------------------------+
|        |                                                 |
| ℤⁿ     | Lattice: vertices of integer lattice in ℝⁿ      |
|        | π₁(Tⁿ) = ℤⁿ — fundamental group of n-torus     |
|        |                                                 |
+--------+-------------------------------------------------+
|        |                                                 |
| Fₙ     | Free on n generators: all words from n letters  |
|        | π₁(∨ⁿS¹) = Fₙ — wedge of n circles              |
|        | "Universal": any group is its quotient          |
|        |                                                 |
+--------+-------------------------------------------------+

Lie groups (continuous) — symmetries of physics:

+----------------+----+-------------------------------------------------------+
| GROUP          |dim | WHAT IT IS / WHERE IT APPEARS                         |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| U(1) ≅ S¹      |  1 | Complex numbers |z|=1, rotations of plane             |
|                |    | Phase in quantum mechanics, electromagnetism          |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(2)          |  1 | Rotations of plane (≅ U(1) as Lie groups)             |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(3)          |  3 | Rotations in ℝ³: orientation of rigid body           |
|                |    | not simply connected π₁(SO(3)) = ℤ/2                  |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SU(2)          |  3 | Unitary 2×2 with det=1, double cover of SO(3)         |
|                |    | Spin in quantum mechanics.                            |
|                |    | SU(2) ≅ S³ (3-sphere) — simply connected              |
|                |    |                                                       |
|                |    | Important for robotics:                               |
|                |    | Quaternion q and −q give the same rotation.           |
|                |    | Rotation by 360° gives −1, need 720° to return to 1. |
|                |    | This is not a bug, it's topology: π₁(SO(3)) = ℤ/2.   |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SU(3)          |  8 | Symmetry of strong interaction (quarks)               |
|                |    | Standard model: SU(3)×SU(2)×U(1)                      |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SO(3,1)        |  6 | Lorentz group: symmetries of spacetime                |
|                |    | Special theory of relativity                          |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| GL(n,ℝ)        | n² | All invertible n×n matrices (det ≠ 0)                 |
|                |    | "General linear group"                                |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+
|                |    |                                                       |
| SL(n,ℝ)        |n²−1| Matrices with det = 1 (preserve volume)               |
|                |    |                                                       |
+----------------+----+-------------------------------------------------------+

 Key connections


 1. Fundamental groups (topology → algebra):
    π₁(S¹) = ℤ,  π₁(T²) = ℤ²,  π₁(∨ₙS¹) = Fₙ

 2. Coverings (connection between groups):
    SU(2) →²:¹ SO(3),   ℝ → S¹ (exp),   SL(2,ℂ) →²:¹ SO(3,1)

 3. Classification of finite simple groups (completed ~1980):
    Cyclic ℤ/p + Alternating Aₙ (n≥5) +
    Groups of Lie type + 26 sporadic (including "Monster")

 4. Classification theorem for finite abelian groups:
    Any ≅ ℤ/n₁ × ℤ/n₂ × ... × ℤ/nₖ  (unique decomposition)


Groups describe symmetries — what can be done with space. But to
talk about continuity of transformations, we need the notion of closeness.
What does "points nearby" mean? What does "transformation doesn't tear space" mean?

This is what topology deals with — the next fundamental view of space.

===============================================================================
Topology — the study of nearness without distances
===============================================================================

If a set is dust, then topology is fabric. We add to points the notion of
"nearby": which points can be considered close, which — not. But we still
don't know how close — there are no distance-numbers.

This is the minimal structure for continuity. To say "a function is continuous",
it suffices to know which points are nearby. Specific distances are not needed.

In terms of "object—observer": topology is a property of the space itself,
not of the observer. Two observers with different coordinate systems will see one and
the same topology: the same holes, the same connectedness, the same boundaries. Topological
properties are invariants, not depending on the method of description.

This is precisely why topology is so fundamental: it speaks about the shape of an object,
not about how the observer records it.

-------------------------------------------------------------------------------
 Topology as a view of space
-------------------------------------------------------------------------------

 Let us recall from the introduction: each branch of mathematics is a way of looking at
 space. Topology sees in space only the nearness of points, but
 not distances between them.

   Set → topological space → metric
   (points)         (nearness)              (distances)

 Topology is the "middle": more structure than a bare set,
 but less than a metric space.


 Main example: donut = mug


       Donut (torus)     mug

          ╭--------╮                    ╭-╮
        ╭-╯  ╭--╮  ╰-╮               ╭--╯ ╰--╮
        |    |  |    |               | ╭-╮   |
        |    |  |    |               | | |   |
        ╰-╮  ╰--╯  ╭-╯               | ╰-╯   |
          ╰--------╯                 |       |
                                     ╰-------╯

   One hole                        One hole (handle)

   Topologically identical. One can continuously deform one into the other.
   But the donut cannot be transformed into a mug without a handle — the hole will disappear.

-------------------------------------------------------------------------------
 Why topology is needed
-------------------------------------------------------------------------------

 Problem: We want to talk about "nearness" and "continuity", but:

   • Distance does not always exist (how to measure distance between functions?)
   • Sometimes distance is redundant (shape matters to us, not sizes)
   • Different distances can give the same "nearness"

 Solution: Define "nearness" directly, without distance.
          Instead of d(x,y) < ε we say: "y in a neighborhood of x"

 Analogy: Metro map vs city map
           • City map: exact distances, scale
           • Metro map: only connections between stations
           For navigating the metro, distances are not needed

-------------------------------------------------------------------------------
 What topology studies
-------------------------------------------------------------------------------

 Geometry: angles, lengths, distances — metric invariants
 Topology: connectedness, holes, number of components — topological invariants

 +--------------------------------------------------------------------+
 | Topology studies properties invariant under continuous             |
 | deformations (homeomorphisms). Allowed: stretching, compression,   |
 | bending. Not allowed: tearing, gluing.                             |
 +--------------------------------------------------------------------+

 Homeomorphic objects:
 +--------------------------+--------------------------------------------+
 | OBJECTS                  | TOPOLOGICAL INVARIANT                      |
 +--------------------------+--------------------------------------------+
 | ○ ≅ □ ≅ △                | No holes, π₁ = 0                           |
 | Mug ≅ Torus              | One hole, π₁ = ℤ                           |
 | O ≅ D, B ≅ 8, A ≅ R      | Classification by number of holes          |
 +--------------------------+--------------------------------------------+

-------------------------------------------------------------------------------
 Physical view: frozen object
-------------------------------------------------------------------------------

 Topology looks at space as a frozen object.
 Group looks as a dynamical system.

 Four questions of topology:

   1. How many holes are in the object?
      Donut — one. Mug with handle — also one. They are "the same".
      Sphere — none. It cannot be deformed into a donut.

   2. Does the object have a boundary?
      A disk has one (circle). A sphere does not. A Möbius strip — one edge.

   3. Can it be cut without breaking into parts?
      Cut a torus crosswise — a tube remains (one part).
      Cut a sphere — it breaks into two caps (two parts).

   4. Can one distinguish "left" and "right" on it?
      On a Möbius strip — no. It is non-orientable.

 These are all invariants — properties that do not change under deformation.

 Contrast with groups:

   Group asks:      What motions are possible with this object?
   Topology asks:   What is the shape of this object?

   Group: dynamics of motion → SE(3), SO(3), D₄
   Topology: statics of shape → holes (π₁), connectedness (π₀), Euler (χ)

   Both give classification — establish what is possible and what is not.
   Both answer the question "what type is this object".

 Example of connection: Fundamental group π₁(X) is a group
 that classifies loops in topological space X.
 Topology and algebra meet.

-------------------------------------------------------------------------------
Alphabet Letters: Classification by Holes
-------------------------------------------------------------------------------

   No holes (all the same):          C, G, I, J, L, M, N, S, U, V, W, Z

   One hole (all the same):          A, D, O, P, Q, R

   Two holes (all the same):         B, 8

 This is a complete classification of letters from a topological point of view.
 The letter "O" and the letter "D" — the same object (can be deformed).
 The letter "O" and the letter "C" — different objects (C has no hole).


===============================================================================
Open Sets — Basic Concept
===============================================================================

 Definition of open set:
 A set U ⊂ X is called open if for each point x ∈ U
 there exists a neighborhood of x entirely contained in U.

 Equivalent formulation (for metric space):
 ∀x ∈ U  ∃ε > 0:  B(x, ε) ⊂ U

 +----------------------------------------------------------+
 | x ∈ U  ⟺  x — interior point  ⟺  ∃ε > 0: B(x,ε) ⊂ U |
 +----------------------------------------------------------+

 Boundary points: ∀ε > 0 ball B(x,ε) contains points both from U and from X\U
 An open set does not contain its boundary points.


 Examples on the number line ℝ
 +---------------+--------------------------+--------------------------------+
 | INTERVAL TYPE | VISUALIZATION            | PROPERTY                       |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | open          | --○━━━━━━━━━━━━━━○--     | Open: each point has           |
 | (0, 1)        |   0 not in     1 not in  | "margin" inside                |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | closed        | --●━━━━━━━━━━━━━━●--     | Closed: contains boundary      |
 | [0, 1]        |   0 in         1 in      | No "margin" at edges           |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+
 |               |                          |                                |
 | half-open     | --●━━━━━━━━━━━━━━○--     | Neither open nor closed        |
 | [0, 1)        |   0 in        1 not in   | This happens                   |
 |               |                          |                                |
 +---------------+--------------------------+--------------------------------+

-------------------------------------------------------------------------------
 Openness depends on ambient space
-------------------------------------------------------------------------------

 The same set can be open in one space
 and not open in another.

 Example 1: Set [0, 1)
   • In ℝ: not open (point 0 is boundary)
   • In [0, ∞): open (no points to the left of 0, so 0 is interior)

 Example 2: Set [0, ½)
   In space X = [0, 1] with induced topology from ℝ:
   • [0, ½) is open in X (because [0, ½) = X ∩ (−1, ½))
   • But point 0 intuitively seems like an "edge" — this is a trap

 Conclusion: When saying "open", always specify — in which space

-------------------------------------------------------------------------------
 Definition of Metric
-------------------------------------------------------------------------------

 A metric on a set X is a function d: X × X → [0, +∞) such that:

   +-------------------------------------------------------------+
   | (M1)  d(x,y) = 0  ⟺  x = y       (identity of indiscernibles) |
   | (M2)  d(x,y) = d(y,x)             (symmetry)                |
   | (M3)  d(x,z) ≤ d(x,y) + d(y,z)   (triangle inequality)     |
   +-------------------------------------------------------------+

 The pair (X, d) is called a metric space.

 Examples of metrics:
   +---------------------+-----------------------------------------------+
   | SPACE               | METRIC                                        |
   +---------------------+-----------------------------------------------+
   | ℝ                   | d(x,y) = |x − y|                              |
   | ℝⁿ (Euclidean)      | d(x,y) = √(Σᵢ(xᵢ−yᵢ)²)                        |
   | ℝⁿ (Manhattan)      | d(x,y) = Σᵢ|xᵢ−yᵢ|                            |
   | ℝⁿ (sup-metric)     | d(x,y) = maxᵢ|xᵢ−yᵢ|                          |
   | C[a,b] (functions)  | d(f,g) = max_{x∈[a,b]}|f(x)−g(x)|             |
   | Discrete            | d(x,y) = 0 if x=y, otherwise 1                |
   +---------------------+-----------------------------------------------+

 Why metric:
   • Defines the notion of "closeness" quantitatively
   • Generates topology (open sets via balls)
   • Allows talking about convergence: xₙ → x ⟺ d(xₙ,x) → 0

-------------------------------------------------------------------------------
Formal definition of open set (via metric)
-------------------------------------------------------------------------------

 Let (X, d) — metric space.

 Open ball: B(x, ε) = {y : d(x,y) < ε}
               (all points closer than ε to center x)

 A set U is called open if:

   +--------------------------------------------------------+
   | ∀x ∈ U  ∃ε > 0:  B(x, ε) ⊆ U                        |
   |                                                        |
   | "For each point x from U there exists a ball centered at x, |
   | entirely lying in U"                                   |
   +--------------------------------------------------------+

 Visually:

        U — open                          V — not open
     ╭-----------------╮               ╭-----------------╮
     |    ╭---╮        |               |            ●----+ ← point on
     |    | ● | ball   |               |           no    |   boundary,
     |    ╰---╯ inside |               |           ball  |   ball won't
     |                 |               |                 |   fit
     ╰-----------------╯               ╰-----------------╯

-------------------------------------------------------------------------------
 Closed sets
-------------------------------------------------------------------------------

 Closed set = complement of open

   F closed  ⟺  X \ F open

 Equivalently: F contains all its limit points.
               (If a sequence from F converges, the limit is also in F)

 Examples in ℝ:

   [0, 1]     closed      (ℝ \ [0,1] = (−∞,0) ∪ (1,+∞) — open)
   {0}        closed      (single point — degenerate case)
   [0, +∞)    closed      (half-line with included endpoint)
   ℚ          not closed  (√2 — limit point, but √2 ∉ ℚ)

 Attention: "Not open" ≠ "Closed".

   [0, 1)  — neither open nor closed
   ∅       — both open and closed (the only such: ∅ and entire X)
   ℝ       — both open and closed

-------------------------------------------------------------------------------
 Boundary, interior, closure
-------------------------------------------------------------------------------

 For any set A ⊆ X:

   Int(A) = interior = largest open subset of A
          = {x ∈ A : ∃ε > 0, B(x,ε) ⊆ A}

   Cl(A)  = closure = smallest closed superset of A
          = A ∪ {all limit points of A}

   ∂A     = boundary = Cl(A) \ Int(A)
          = points in any neighborhood of which there are both A and non-A

 Example: A = (0, 1]

     -------○━━━━━━━━━━━━━━━━━━━━━━━━━●-------
            0                         1

   Int(A) = (0, 1)     — removed point 1 (it's on boundary)
   Cl(A)  = [0, 1]     — added point 0 (limit point)
   ∂A     = {0, 1}     — two boundary points

 Connection:
   A open   ⟺  A = Int(A)  ⟺  A does not contain its boundary
   A closed ⟺  A = Cl(A)   ⟺  A contains its boundary


===============================================================================
Topological space — abstraction
===============================================================================

 Idea: forget about metric, keep only "open sets"


 Observation: All properties of continuity can be expressed through open
              sets, without mentioning distance.

 Idea: What if we directly specify which sets to consider "open"?
       Not derive from metric, but simply declare.

 Need rules so that "open" sets behave reasonably.

-------------------------------------------------------------------------------
 Definition of topology
-------------------------------------------------------------------------------

 A topology on set X is a family τ ⊆ P(X) of subsets of X,
 satisfying three axioms:

   +--------------------------------------------------------+
   | (T1)  ∅ ∈ τ  and  X ∈ τ                                |
   | Empty and entire space are open                      |
   |                                                        |
   | (T2)  U₁, U₂ ∈ τ  ⇒  U₁ ∩ U₂ ∈ τ                       |
   | Intersection of two open sets is open                |
   | (by induction: finite intersection of open sets is open) |
   |                                                        |
   | (T3)  {Uᵢ}ᵢ∈I ⊆ τ  ⇒  ⋃ᵢ∈I Uᵢ ∈ τ                      |
   | Union of any family of open sets is open             |
   | (even infinite, even uncountable)                      |
   +--------------------------------------------------------+

 The pair (X, τ) is called a topological space.
 Elements of τ are called open sets.


 Why such axioms

 These axioms are derived from properties of open sets in metric space:

 (T1) Obvious: everywhere there is "margin", nowhere there is "margin"

 (T2) If in U₁ there is a ball of radius ε₁, and in U₂ — of radius ε₂,
      then in intersection there is a ball of radius min(ε₁, ε₂)

      Why only finite? For infinite intersection min can be 0.

      Example: ⋂ₙ (−1/n, 1/n) = {0} — single point, not an open set.

 (T3) If a point is in some Uᵢ, it has a ball in this Uᵢ,
      so in the union there is also a ball. Works for any family.

-------------------------------------------------------------------------------
Examples of Topologies
-------------------------------------------------------------------------------

 Let X = {a, b, c} — three points. Compare topologies:

 +----------------+--------------------------+--------------------+
 | TOPOLOGY       | OPEN SETS                | MEANING            |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Discrete       | All subsets:             | Points "far"       |
 | (maximal)      | ∅,{a},{b},{c},{a,b},     | from each other,   |
 |                | {a,c},{b,c},{a,b,c}      | each isolated      |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Antidiscrete   | Only ∅ and X:            | Points "glued",    |
 | (minimal)      | {∅, {a,b,c}}             | indistinguishable  |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+
 |                |                          |                    |
 | Intermediate   | {∅, {a}, {a,b}, {a,b,c}} | a "open",          |
 | (example)      |                          | c "closed"         |
 |                |                          |                    |
 +----------------+--------------------------+--------------------+

-------------------------------------------------------------------------------
 Standard topology on ℝ
-------------------------------------------------------------------------------

 τ = {U ⊆ ℝ : ∀x ∈ U ∃ε > 0: (x−ε, x+ε) ⊆ U}

 Open sets = those where each point is surrounded by an interval.

 Topology base:

   No need to describe all open sets.
   Sufficient to specify a base — a collection of "building blocks" from which
   all other open sets are obtained by unions.

   For ℝ: base = all open intervals (a, b)
   For ℝⁿ: base = all open balls B(x, ε)

 Important: Standard topology on ℝ is generated by metric d(x,y) = |x−y|
            But one can define other topologies on the same ℝ.


 Metric → Topology (but not conversely)


 Any metric d on X generates a topology:
   τ_d = {U : ∀x ∈ U ∃ε > 0: B_d(x,ε) ⊆ U}

 But not every topology is generated by some metric.
 (Such topologies are called "metrizable")

 Example of non-metrizable topology:
   Antidiscrete on X with |X| > 1: cannot separate points by balls.

 Different metrics can give the same topology:

   On ℝ²:  d₁(x,y) = |x₁−y₁| + |x₂−y₂|        (Manhattan)
           d₂(x,y) = √((x₁−y₁)² + (x₂−y₂)²)  (Euclidean)
           d∞(x,y) = max(|x₁−y₁|, |x₂−y₂|)   (Chebyshev)

   Balls of different shapes:  ◇ (d₁)    ○ (d₂)    □ (d∞)
   But the topology is one. The same sets are open.

      ◇           ○           □
     ╱ ╲         ╱ ╲         +-+
    ╱   ╲       |   |        | |
    ╲   ╱       |   |        | |
     ╲ ╱         ╲ ╱         +-+

   Topologically equivalent (homeomorphic as balls)

-------------------------------------------------------------------------------
 Separation axioms — how "good" the space is
-------------------------------------------------------------------------------

 Problem: Not all topological spaces are "good".
 In antidiscrete topology two different points are indistinguishable.

 Separation axioms define a hierarchy of "good" spaces:

 +---------+---------------------------------------------------------------+
 | AXIOM   | CONDITION                                                     |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₀      | For any x ≠ y there exists a neighborhood of one of the       |
 |(Kolmog.)| points not containing the other.                              |
 |         | (Can somehow distinguish)                                     |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₁      | For any x ≠ y there exists a neighborhood of x not            |
 |(Fréchet)| containing y, and a neighborhood of y not containing x.       |
 |         | Equivalently: all singleton sets {x} are closed.              |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₂      | For any x ≠ y there exist disjoint neighborhoods:             |
 |(Hausd.) | U ∋ x, V ∋ y, U ∩ V = ∅                                       |
 |         |                                                               |
 |         |     x           y                                             |
 |         |    (U)         (V)        ← U and V do not intersect          |
 |         |   ╭---╮       ╭---╮                                           |
 |         |   | ● |       | ● |                                           |
 |         |   ╰---╯       ╰---╯                                           |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₃      | T₁ + for a point x and closed F ∌ x there exist               |
 |(regul.) | disjoint neighborhoods of x and F.                            |
 |         |                                                               |
 +---------+---------------------------------------------------------------+
 |         |                                                               |
 | T₄      | T₁ + for any disjoint closed F, G                             |
 |(norm.)  | there exist disjoint neighborhoods.                           |
 |         |                                                               |
 +---------+---------------------------------------------------------------+

 Hierarchy:

   T₄ (normal) ⊂ T₃ (regular) ⊂ T₂ (Hausdorff) ⊂ T₁ ⊂ T₀

 Why T₂ (Hausdorffness) is important:

   1. Uniqueness of limits:
      In a Hausdorff space a sequence has
      at most one limit. (Without T₂ the limit may be non-unique)

   2. Compact sets are closed:
      In a Hausdorff space a compact subset is closed.

   3. Practice:
      Almost all spaces in analysis and geometry are Hausdorff.
      ℝⁿ, manifolds, metric spaces — all T₂.

 Examples:

   ✓ ℝⁿ with standard topology — T₄ (normal)
   ✓ Any metric space — T₄
   ✗ Antidiscrete topology (|X| > 1) — not even T₀
   ✗ Line with doubled point — T₁, but not T₂

 Urysohn's Lemma (consequence of T₄):
   In a normal space for any disjoint closed
   F and G there exists a continuous f: X → [0,1] with f|_F = 0 and f|_G = 1.
   (One can "smoothly" separate sets by a function)


===============================================================================
Continuous mappings — preservation of proximity
===============================================================================

-------------------------------------------------------------------------------
 Definition of continuity
-------------------------------------------------------------------------------

 Let (X, τ_X) and (Y, τ_Y) be topological spaces.

 +-----------------------------------------------------------+
 | Definition: f: X → Y continuous ⟺ ∀V ∈ τ_Y: f⁻¹(V) ∈ τ_X |
 | (preimage of an open set is open)                         |
 +-----------------------------------------------------------+

 Here f⁻¹(V) = {x ∈ X : f(x) ∈ V} — preimage (not inverse function).

           Preimage is always defined, even if f is not invertible.

 Visualization:

      X                           Y
   +-----------+    f        +-----------+
   | ╭------╮  |   ---→      |   ╭---╮   |
   | |f⁻¹(V)|  |             |   | V |   |   V open in Y
   | ╰------╯  |             |   ╰---╯   |
   +-----------+             +-----------+
     open?                     open ✓

   f continuous ⟺ for any open V, its preimage f⁻¹(V) is open

-------------------------------------------------------------------------------
 Connection with ε-δ definition
-------------------------------------------------------------------------------

 Two definitions — one idea (for metric spaces are equivalent):
 +----------------+----------------------------------------------------+
 | DEFINITION     | FORMULATION                                        |
 +----------------+----------------------------------------------------+
 | ε-δ (analysis) | ∀ε>0 ∃δ>0: d(x,x₀)<δ ⇒ d(f(x),f(x₀))<ε |
 |                | "image arbitrarily close for close argument"       |
 +----------------+----------------------------------------------------+
 | Topological    | Preimage of an open set is open                    |
 |                | "neighborhood of image ← neighborhood of argument" |
 +----------------+----------------------------------------------------+

 Why topological? Works without metric.


 Examples and counterexamples
 +---------------------+-----------------------+-------------------------+
 | FUNCTION            | CONTINUOUS?           | WHY                     |
 +---------------------+-----------------------+-------------------------+
 | f(x) = x²           | YES                   | Preimage of (a,b) open  |
 | f(x) = sin(x)       | YES                   | Smooth → continuous     |
 | f(x) = |x|          | YES                   | At each point cont.     |
 | f(x) = ⌊x⌋          | no                    | Preimage not open       |
 | f(x) = θ(x) (Heavi) | NO                    | Discontinuity at x=0    |
 +---------------------+-----------------------+-------------------------+

   Problem at point 0: jump.


===============================================================================
Homeomorphism — topological equivalence
===============================================================================

 Definition:
 Homeomorphism f: X → Y is a bijection, continuous in both directions:

   1. f is a bijection (one-to-one correspondence)
   2. f is continuous
   3. f⁻¹ is also continuous

 If there exists a homeomorphism X → Y, we write X ≅ Y ("X homeomorphic to Y")

 Meaning: X and Y have the same topological structure.
          They differ only in "names" of points.

-------------------------------------------------------------------------------
 Physical interpretation: very viscous flow
-------------------------------------------------------------------------------

 Imagine an object made of very viscous liquid (dough, plasticine, resin).
 Homeomorphism is a slow deformation, in which:

   • Material flows, changes shape
   • But doesn't tear (can't create a hole)
   • and doesn't glue together (can't fill a hole)

 Donut → mug: dough "flows over", hole is preserved
 Donut → sphere: impossible without tearing (hole must disappear)

 This intuition connects topology with hydrodynamics:
   • Homeomorphism = result of infinitely slow incompressible flow
   • Topological invariants = that which is preserved under any flow
   • Diffeomorphism = smooth flow (without "folds")


 Why is continuity of f⁻¹ needed?

 A continuous bijection is not necessarily a homeomorphism.

 Counterexample:

   X = [0, 2π)  with usual topology (half-interval)
   Y = S¹      circle
   f(t) = (cos t, sin t)

      [0------------2π)         f          ╭------╮
       ●                       ---→       ╱   ●    ╲
       |                                 |    ↑     |
       +-→ stretches onto circle         |  start   |
                                          ╲        ╱
                                           ╰------╯

   f is a bijection ✓
   f is continuous ✓
   f⁻¹ is not continuous ✗

   Why? When going around the circle, approaching the starting point,
   f⁻¹ makes a jump: .→ 2π−ε → 0 (discontinuity)

   [0, 2π) and S¹ are not homeomorphic, although there is a continuous bijection.

-------------------------------------------------------------------------------
Examples of homeomorphisms
-------------------------------------------------------------------------------

 (0, 1) ≅ ℝ        via f(x) = tan(π(x − 1/2))
                   Open interval ↔ entire line

 (0, 1) ≅ (0, ∞)   via f(x) = x/(1−x)

 Circle ≅ Square    "Inflate" square to circle

 ℝ² \ {0} ≅ S¹×ℝ   Plane without origin ↔ Cylinder
                   (polar coordinates: (r,θ) ↦ (θ, ln r))

 Not homeomorphic:

 [0,1] ≇ (0,1)     Closed interval ≠ open (different number of endpoints)
 S¹ ≇ [0,1]        Circle ≠ segment (segment has endpoints)
 S² ≇ T²           Sphere ≠ torus (different number of holes)

-------------------------------------------------------------------------------
 Hierarchy of equivalences
-------------------------------------------------------------------------------

 Isometry ⊂ Diffeomorphism ⊂ Homeomorphism ⊂ Homotopy equivalence

+-----------------+-------------------+------------------------------+
| EQUIVALENCE     | WHAT IT PRESERVES | SQUARE                       |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Isometry        | Distances         | ≅ only to itself/rotation    |
| (most strict)   |                   |                              |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Diffeomorphism  | Smooth structure  | ≅ to circle (smooth deform.) |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Homeomorphism   | Topology          | ≅ to circle (continuous deform.) |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+
|                 |                   |                              |
| Homotopy equiv. | "Shape of holes"  | ≃ to point (can contract)   |
| (most weak)     |                   |                              |
|                 |                   |                              |
+-----------------+-------------------+------------------------------+

===============================================================================
Connectedness — "in one piece"
===============================================================================

 Connectedness — informal description


 Connected space: not representable as union of two disjoint
                  nonempty open sets

   Connected: not connected:
   ╭-----------╮               ╭-------╮   ╭-------╮
   |           |               |       |   |       |
   |     ●     |               |   ●   |   |   ●   |
   |           |               |       |   |       |
   ╰-----------╯               ╰-------╯   ╰-------╯
   one piece                   two separate pieces


 Formal definition

 Topological space X is called connected if
 there does not exist a partition X = U ∪ V, where:

   • U, V ≠ ∅           (both nonempty)
   • U ∩ V = ∅          (disjoint)
   • U, V ∈ τ           (both open)

 Equivalently: the only sets that are simultaneously
               open and closed are ∅ and X.

 Meaning: Cannot "cut" X into two open pieces.
          Between any two points there is a "topological path".


 Examples

 Connected:

   [0, 1]      Any partition into open sets is impossible
   (0, 1)      Also connected
   ℝ           Connected
   ℝⁿ          Connected for any n
   S¹, S², Sⁿ  All spheres are connected
   Disk, ball  Connected

 Not connected:

   (0,1) ∪ (2,3)   Two intervals = two pieces
                   U = (0,1), V = (2,3) — partition

   ℚ               Rational numbers are not connected
                   Partition: {q < √2} and {q > √2}
                   (both open in induced topology)

   ℝ \ {0}         Line without zero = two rays
                   U = (−∞, 0), V = (0, +∞)

   {0, 1}          Two isolated points (discrete topology)
   (discrete)      U = {0}, V = {1} — both open

-------------------------------------------------------------------------------
 Path connectedness (stronger)
-------------------------------------------------------------------------------

 X is path connected if any two points can be connected by a path:

   ∀x, y ∈ X  ∃γ: [0,1] → X continuous,  γ(0) = x,  γ(1) = y

 Relationship:
   Path connected ⇒ Connected (always)
   Connected ⇒ Path connected (for "nice" spaces, but not always)

 Counterexample (topologist's sine curve):

   A = {(x, sin(1/x)) : x > 0} ∪ {(0, y) : −1 ≤ y ≤ 1}

       |╭╮   ╭╮   ╭╮
   ----+╯╰---╯╰---╯╰---  ← oscillates infinitely
       |                   as x → 0
       |
     vertical
     segment

   This is connected (in topological sense)
   But not path connected: no continuous path from sine curve to segment

-------------------------------------------------------------------------------
Connected Components
-------------------------------------------------------------------------------

 Connected component of a point x — maximal connected subset
 containing x.

 Properties:
   • X decomposes into disjoint connected components
   • There can be finitely many, countably or uncountably many components

 Examples:
   ℝ \ {0}       — two components: (−∞, 0) and (0, +∞)
   ℤ (discr.)   — countably many components: each point separately
   Cantor set — uncountably many components (each point — a component)

 H₀ in homology counts connected components:
   H₀(X) = ℤᵏ, where k = number of components


===============================================================================
Compactness — finiteness in infinity
===============================================================================

-------------------------------------------------------------------------------
 Why compactness is needed
-------------------------------------------------------------------------------

 Problem: On infinite or non-closed sets many theorems break.

   • f(x) = x on (0, +∞): no maximum and minimum
   • f(x) = 1/x on (0, 1): continuous, but unbounded
   • A sequence in ℝ can "escape" to infinity

 Solution: Compactness — a property guaranteeing "finitely-like"
          behavior on infinite sets.

 Analogy with thermal engineering:
   Compact space — like a bounded system without "leaks".
   Energy cannot "escape to infinity".

-------------------------------------------------------------------------------
 Definition of compactness (via coverings)
-------------------------------------------------------------------------------

 Covering of a set X — a family of sets {Uᵢ}ᵢ∈I such that X ⊆ ⋃ᵢ Uᵢ
 Open covering — covering by open sets.

 Definition:

   +--------------------------------------------------------------+
   | X is compact if from any open covering one can choose        |
   | a finite subcovering.                                        |
   |                                                              |
   | ∀{Uᵢ}ᵢ∈I open covering of X                                 |
   | ∃ finite J ⊂ I:  X ⊆ ⋃ⱼ∈J Uⱼ                               |
   +--------------------------------------------------------------+

 Compactness: any open covering has a finite subcovering
           No matter how finely we cover it, finitely many suffice.


 Example: Why [0,1] is compact, but (0,1) is not


 (0, 1) is not compact:

   Covering: Uₙ = (1/n, 1) for n = 2, 3, 4, ...

     U₂ = (1/2, 1)     +━━━━━━━━━━━━━+
     U₃ = (1/3, 1)   +━━━━━━━━━━━━━━━━+
     U₄ = (1/4, 1)  +━━━━━━━━━━━━━━━━━━+
     ⋮             ⋮

   ⋃ₙ Uₙ = (0, 1) — covering ✓

   But any finite subcovering U_{n₁}, ..., U_{nₖ}
   covers only (1/N, 1), where N = max(n₁,...,nₖ).
   Points (0, 1/N) are not covered. ✗

 [0, 1] is compact:

   The same covering {(1/n, 1)} does not cover [0,1] — does not contain 0.
   Any covering of [0,1] must contain a neighborhood of 0 and a neighborhood of 1.
   This "closes" the construction, allowing to choose a finite subcovering.

   (Formal proof: Heine–Borel theorem)

 Intuition: (0,1) is non-compact not because it's "large" — it is bounded.
   The problem is absence of edges: coverings can "leak" to the boundary,
   requiring infinitely many sets to "catch up" points near 0.
   Closedness adds edges to which coverings "stick".

-------------------------------------------------------------------------------
 Heine–Borel theorem (for ℝⁿ)
-------------------------------------------------------------------------------

   +-----------------------------------------------+
   | In ℝⁿ: X is compact  ⟺  X is closed and bounded |
   +-----------------------------------------------+

 Warning: This is true only for ℝⁿ. In a general topological space
           closedness + boundedness does not guarantee compactness.

 Counterexample (critical for functional analysis):
   Unit ball B = {f ∈ L²: ‖f‖ ≤ 1} in infinite-dimensional L²:
     • Closed? Yes
     • Bounded? Yes
     • Compact? No
   The sequence eₙ(x) = sin(nπx) is bounded, but has no
   convergent subsequence in L².

   This breaks intuition from ℝⁿ. In infinite-dimensional spaces
   weak compactness or additional conditions are needed.

   Important: Although the ball B is non-compact in the strong (norm) topology,
   it is weakly compact (Banach–Alaoglu theorem). This is critically important
   for calculus of variations: minimum of energy exists precisely
   thanks to weak compactness.

 Why this is a catastrophe for an engineer:

   Weierstrass theorem: "continuous function on a compact attains min".
   But if the space is non-compact — the minimum may not exist.

   In infinite-dimensional optimization problems (calculus of variations,
   neural network training) this means:
     • We descend a "slope", but there is no bottom
     • Minimizing sequence fₙ "escapes to infinity"
     • The function becomes ever thinner and taller, ceasing to be a function

   Solution: add regularization (∫|f'|² ≤ C), which makes
   the admissible set compact in the weak topology.

 Examples in ℝⁿ:

   +--------------------+-----------+-------------+------------------+
   | SET                | CLOSED?   | BOUNDED?    | COMPACT?         |
   +--------------------+-----------+-------------+------------------+
   | [0, 1]             | Yes       | Yes         | Yes              |
   | (0, 1)             | No        | Yes         | No               |
   | [0, +∞)            | Yes       | No          | No               |
   | ℕ = {1, 2, 3, ...} | Yes       | No          | No               |
   | Unit ball D²       | Yes       | Yes         | Yes              |
   | Sphere S²          | Yes       | Yes         | Yes              |
   | ℝⁿ                 | Yes       | No          | No               |
   | {1/n : n ∈ ℕ}      | No        | Yes         | No               |
   | {0}∪{1/n : n ∈ ℕ}  | Yes       | Yes         | Yes (added 0!)   |
   +--------------------+-----------+-------------+------------------+


 Properties of compact spaces
+------------------------+------------------------------------+
| PROPERTY               | FORMULATION                        |
+------------------------+------------------------------------+
|                        |                                    |
| Image of compact       | f: X → Y continuous, X compact     |
|                        | ⇒ f(X) compact                     |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Weierstrass theorem    | f: X → ℝ continuous, X compact     |
| (Key to optimization)  | ⇒ f attains max and min            |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Closed ⊂ compact       | X compact, F ⊆ X closed            |
|                        | ⇒ F compact                        |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Compact in Hausdorff   | Y Hausdorff, X ⊆ Y compact         |
|                        | ⇒ X closed in Y                    |
|                        |                                    |
+------------------------+------------------------------------+
|                        |                                    |
| Tychonoff theorem      | X, Y compact ⇒ X × Y compact       |
|                        | (works for any product)            |
|                        |                                    |
+------------------------+------------------------------------+

 Applications of compactness
+------------------+------------------------------------------------+
| AREA             | HOW IT IS USED                                 |
+------------------+------------------------------------------------+
| Optimization     | On compact extremum exists (Weierstrass)       |
+------------------+------------------------------------------------+
| Numerical methods| Convergence via subsequences                   |
+------------------+------------------------------------------------+
| Physics          | Compact phase space = closed system            |
+------------------+------------------------------------------------+

 Thermodynamics:
   Finite reservoir (compact domain) vs infinite medium.
   Properties of solutions of the heat equation depend essentially
   on compactness of the domain.


===============================================================================
Topological invariants — how to distinguish spaces
===============================================================================

 Problem: how to prove that spaces are different?


 Homeomorphism shows that spaces are the same.
 But how to prove that a homeomorphism does not exist?

 Idea: Associate with a space a number or group (invariant).
       If invariants are different — spaces are definitely different.

 Invariant = property preserved under homeomorphisms.


 Simple invariants
+-------------------------+---------------------------------------------------+
| INVARIANT               | APPLICATION                                       |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Number of points |X|    | |X| ≠ |Y| ⇒ X ≇ Y (for finite)                   |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Connectedness           | X connected, Y not ⇒ X ≇ Y                        |
|                         | Example: (0,1) ≇ (0,1)∪(2,3)                      |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Compactness             | X compact, Y not ⇒ X ≇ Y                          |
|                         | Example: [0,1] ≇ (0,1)                            |
|                         |                                                   |
+-------------------------+---------------------------------------------------+
|                         |                                                   |
| Number of components π₀ | π₀(X) ≠ π₀(Y) ⇒ X ≇ Y                             |
|                         |                                                   |
+-------------------------+---------------------------------------------------+

 Problem: These invariants are too coarse.
 S¹ and S² — both connected and compact, but different. Need more subtle invariants.


 Main (subtle) invariants
+---------------------+--------------------------------------+
| INVARIANT           | WHAT IT MEASURES                     |
+---------------------+--------------------------------------+
| π₁ (fund. group)    | "Group of loops" — distinguishes S¹ from S² |
| χ (Euler char.)     | V − E + F — "mesh" number            |
| Hₙ (homology)       | "Holes" of different dimensions      |
+---------------------+--------------------------------------+

-------------------------------------------------------------------------------
 Fundamental group π₁ — detailed explanation
-------------------------------------------------------------------------------

 Intuition: Imagine that you tied a rope to a point and went walking
 around the space. You returned to the start. Can you shrink the rope to a point,
 without breaking and without leaving the space?

   On plane:                on plane with hole:

      ╭-----╮                      ╭-----╮
     ╱       ╲                    ╱   ●   ╲   ← hole
    |    ●    |                  |  ╱   ╲  |
    |   start |                  | |     | |
     ╲       ╱                    ╲ ╲   ╱ ╱
      ╰-----╯                      ╰-----╯

   Can shrink → loop            Cannot shrink → loop
   "trivial"                    "nontrivial"


 Formal definition:

 Loop in X with base point x₀ is a continuous map
   γ: [0,1] → X,  where γ(0) = γ(1) = x₀

 Two loops γ and δ are called homotopic (γ ≃ δ), if one can be
 continuously deformed into the other, without breaking and without releasing x₀.

 Homotopy = family of loops H(s,t), where:
   • H(0,t) = γ(t)  — start with γ
   • H(1,t) = δ(t)  — end with δ
   • H(s,0) = H(s,1) = x₀  — base point is fixed

 Fundamental group:

   π₁(X, x₀) = {loops in X from x₀} / {homotopy}
             = set of homotopy classes of loops

 Group operation:

   [γ] · [δ] = [γ * δ]

   where γ * δ = "first traverse γ, then δ":

         ⎧ γ(2t)      if 0 ≤ t ≤ ½
   (γ*δ)(t) = ⎨
         ⎩ δ(2t−1)    if ½ ≤ t ≤ 1

   • Identity element: constant loop [x₀]
   • Inverse element: [γ]⁻¹ = [γ⁻¹], where γ⁻¹(t) = γ(1−t)


 Examples of fundamental groups
+---------------------+-------------------+-----------------------------------+
| SPACE               | π₁                | EXPLANATION                       |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝⁿ (any n)          | {e} (trivial)     | Any loop can be shrunk to a point |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| Sⁿ for n ≥ 2        | {e} (trivial)     | On sphere (n≥2) any loop          |
| (sphere)            |                   | contracts (no "holes")            |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| S¹ (circle)         | ℤ                 | Loops are classified by winding   |
|                     |                   | number: ..., −2, −1, 0, 1, 2,...  |
|                     |                   | n>0: counterclockwise              |
|                     |                   | n<0: clockwise                     |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| T² (torus = donut)  | ℤ × ℤ             | Two independent loops:            |
|                     |                   | "around hole" and "through hole"  |
|                     |                   |                                   |
|                     |                   |   ╭----------╮                    |
|                     |                   |  ╱  ╭----╮    ╲                   |
|                     |                   | |  | ●→→→|     |  ← loop a        |
|                     |                   | |   ╰----╯     |                  |
|                     |                   |  ╲    ↑       ╱   ← loop b        |
|                     |                   |   ╰----------╯                    |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝ² \ {0}            | ℤ                 | Plane without point ≃ circle      |
| (plane without 0)   |                   | Loops = windings around hole      |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| "Figure eight"      | F₂                | Free group on 2 generators        |
| S¹ ∨ S¹             | (free)            | Noncommutative: ab ≠ ba.          |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+
|                     |                   |                                   |
| ℝP² (projective     | ℤ/2               | There is a loop, not contractible,|
| plane)              |                   | but traversed twice — contracts   |
|                     |                   |                                   |
+---------------------+-------------------+-----------------------------------+

-------------------------------------------------------------------------------
Why π₁(S¹) = ℤ — detailed explanation
-------------------------------------------------------------------------------

 Circle S¹ = {e^{iθ} : θ ∈ [0, 2π)} ⊂ ℂ
 Base point: x₀ = 1 (at θ = 0)

 Loop with n windings: γₙ(t) = e^{2πint}, t ∈ [0,1]

   n = 0:  γ₀(t) = 1 (staying in place)
   n = 1:  γ₁(t) = e^{2πit} (one winding counterclockwise)
   n = −1: γ₋₁(t) = e^{−2πit} (one winding clockwise)
   n = 2:  γ₂(t) = e^{4πit} (two windings counterclockwise)

 Theorem: γₙ ≃ γₘ ⟺ n = m

 Intuitively: cannot "unwind" a winding without breaking the loop.

 Group operation: [γₙ] · [γₘ] = [γₙ₊ₘ]

 This is exactly the group (ℤ, +)!

 Corollary: S¹ ≇ S² (sphere)
   π₁(S¹) = ℤ ≠ {e} = π₁(S²)
   Different groups ⇒ spaces are not homeomorphic.

-------------------------------------------------------------------------------
 Applications of the fundamental group
-------------------------------------------------------------------------------

 1. Topology: Distinguishing spaces
    π₁(X) ≠ π₁(Y) ⇒ X ≇ Y

 2. Borsuk–Ulam theorem:
    On the surface of the Earth there are two antipodal points with identical
    temperature and pressure. (Related to the fact that π₁(ℝP²) = ℤ/2)

 3. Knot theory:
    π₁(ℝ³ \ knot) distinguishes knots (which knots can be untied?)

 4. Physics:
    • Defects in crystals are classified by π₁
    • Vortices in superfluid helium: π₁(parameter space) = ℤ
    • Magnetic monopoles: π₂(parameter space)

 5. Coverings:
    Covering spaces ↔ subgroups of π₁
    Universal covering ↔ π₁ = {e}

-------------------------------------------------------------------------------
 Higher homotopy groups πₙ
-------------------------------------------------------------------------------

 π₁ measures "holes for loops". But what if we use spheres?

   π₁(X) — classes of maps S¹ → X   (loops)
   π₂(X) — classes of maps S² → X   (spheres)
   πₙ(X) — classes of maps Sⁿ → X   (n-spheres)

 Examples:
 +------------+----------------------------------------+
 | GROUP      | VALUE                                  |
 +------------+----------------------------------------+
 | π₁(S¹) = ℤ | Loop can go around circle n times      |
 | π₁(S²) = 0 | On sphere any loop contracts           |
 | π₂(S²) = ℤ | S² can "wrap" S² an integer number     |
 | π₃(S²) = ℤ | Hopf fibration. (unexpectedly ≠ 0)     |
 | πₙ(Sⁿ) = ℤ | Identity map generates                 |
 +------------+----------------------------------------+

 Deep fact: π₃(S²) = ℤ ≠ 0

   This means that a 3-sphere can be nontrivially mapped onto a 2-sphere.
   This map is called the Hopf fibration: S³ → S² with fiber S¹.
   Each point of S² is a circle in S³.

 In physics:
   • π₂ — classification of magnetic monopoles
   • π₃ — classification of instantons
   • Hopf fibration — related to electron spin

-------------------------------------------------------------------------------
 Homology — algebra of "holes" in space
-------------------------------------------------------------------------------

 Intuition: Homology answers the question "what holes are in the space?"

   H₀ counts connected components (how many separate pieces)
   H₁ counts tunnels (holes through which one can thread a rope)
   H₂ counts cavities (closed voids, like inside a ball)

-------------------------------------------------------------------------------
 Key idea: cycle vs boundary
-------------------------------------------------------------------------------

 Cycle = closed contour (beginning coincides with end)
 Boundary = contour that bounds some region

 Example on plane with hole:

        +-----------------+          +-----------------+
        |    ╭---╮        |          |                 |
        |   ╱     ╲   γ   |          |    ╭---╮        |
        |  |   ●   |←-----|          |   ╱     ╲   δ   |
        |   ╲     ╱       |          |  |       |←-----|
        |    ╰---╯        |          |   ╲     ╱       |
        +-----------------+          |    ╰---╯        |
        γ goes around hole ●         +-----------------+
                                     δ does not go around hole

   γ — cycle, but not boundary        δ — cycle and boundary
   (cannot "fill" — there's a hole)   (can be filled with disk)

   H₁ = {cycles} / {boundaries} = "cycles that cannot be filled"

   For plane with hole: H₁ = ℤ (one generator — going around hole)
   For ordinary plane: H₁ = 0 (all cycles can be filled)

-------------------------------------------------------------------------------
 Construction: from gluing to algebra
-------------------------------------------------------------------------------

 The idea of homology is to translate geometry into linear algebra.
 The space is cut into simple pieces, the pieces are written as
 formal sums, and the question "is there a hole?" turns into
 the question "is a system of linear equations solvable?".

 Step 1: Cutting into simplices

 Simplex — minimal "brick" of each dimension:

   • 0-simplex = point        ●
   • 1-simplex = segment      ●---●
   • 2-simplex = triangle     △
   • 3-simplex = tetrahedron  ▲

 Any "decent" space can be cut into simplices,
 glued along entire faces. Gluing of two simplices is their
 union, where the common part is an entire face
 of some dimension. The result is a simplicial complex.

 Step 2: Orientation — where signs come from

 For the algebra to work, simplices must be oriented:

   • Point: sign + or −
   • Segment: direction chosen (start → end)
   • Triangle: direction of traversal (clockwise or counterclockwise)
   • Tetrahedron: consistent orientation of faces

 Orientation is not decoration, but necessity. Without it, it's impossible
 to define signs, and the whole construction falls apart. Changing orientation
 is equivalent to multiplication by −1.

 Key property: when gluing two oriented triangles
 along a common edge, this edge enters each triangle
 with opposite orientations — and cancels in the sum.
 All internal edges disappear, only the external boundary remains.

       A                      A---D
      ╱ ╲    gluing along    ╱ ╲ ╱    ∂ = external contour
     ╱ → ╲   edge AC:       ╱ → ╲     (AC cancelled)
    B-----C                 B-----C

 Step 3: Chains — formal sums

 Chain of dimension k is a formal sum of oriented
 k-simplices with integer coefficients:

   c = n₁σ₁ + n₂σ₂ + ... + nₘσₘ,   nᵢ ∈ ℤ

 Coefficient nᵢ = −1 means the same simplex with reverse orientation.
 The set of all k-chains is denoted Cₖ. This is an abelian group:
   • (AB + BC) + (CD) = AB + BC + CD
   • Zero chain: 0
   • Inverse: −(AB) = BA (reverse orientation)

 Step 4: Boundary operator ∂

 Operator ∂ takes the oriented boundary:

   ∂(segment AB) = B − A  (end minus start)

   ∂(triangle ABC) = BC + CA + AB  (traversal along boundary)

           A
          ╱ ╲           ∂△ = AB + BC + CA
         ╱   ╲          (closed contour)
        B-----C

   ∂(tetrahedron ABCD) = BCD − ACD + ABD − ABC  (four faces with signs)

 Properties of ∂:
   • Linearity: ∂(c₁ + c₂) = ∂c₁ + ∂c₂
   • Dimension reduction: ∂: Cₖ → Cₖ₋₁
   • ∂∂ = 0 (boundary of boundary is empty)

 The last is not magic, but a consequence of orientation. Let's check:

   ∂(∂ △ABC) = ∂(AB + BC + CA)
             = (B−A) + (C−B) + (A−C)
             = 0  ✓

 Each vertex enters exactly twice: as the start of one edge
 and as the end of another. The signs are opposite — everything cancels.
 This works in any dimension: ∂ₖ₋₁ ∘ ∂ₖ = 0.

 Step 5: Chain complex and homology

 In total we have a sequence of groups and operators:

   ... → Cₖ₊₁ →∂ₖ₊₁ Cₖ →∂ₖ Cₖ₋₁ → ...

 From ∂∂ = 0 follows: Im(∂ₖ₊₁) ⊆ ker(∂ₖ). Every boundary is a cycle.
 Question: is the converse true? Is every cycle a boundary?

 If yes — there are no holes. If no — "extra" cycles are the holes.

   Zₖ = ker(∂ₖ)    — cycles (chains without boundary)
   Bₖ = Im(∂ₖ₊₁)   — boundaries (chains that are someone's boundary)

   Hₖ = Zₖ / Bₖ    — k-th homology group

 Hₖ measures the gap between "being a cycle" and "being a boundary".
 If Hₖ = 0 — all k-cycles are boundaries (no k-holes).
 If Hₖ ≠ 0 — there are cycles that cannot be filled.

 Connection with linear algebra: ∂ₖ is a matrix (huge, sparse,
 almost all elements 0, the rest ±1). Cycles = kernel of matrix.
 Boundaries = image of another matrix. Homology = kernel/image.
 The whole problem reduces to linear algebra, though the matrices are gigantic.

 Example: torus T²

   H₁(T²) = ℤ ⊕ ℤ — two independent generators:
   [meridian] and [parallel]. Any cycle on the torus is homologous to
   n·[meridian] + m·[parallel] for integers n, m.

   Meridian — cycle (closed), but not boundary: it cannot be
   "filled" with a disk while remaining on the surface of the torus.

 Examples:
 +-----------------+----+-----+----+------------------+
 | SPACE           | H₀ | H₁  | H₂ | INTERPRETATION   |
 +-----------------+----+-----+----+------------------+
 | Point           | ℤ  | 0   | 0  | 1 piece, no hole |
 | Circle S¹       | ℤ  | ℤ   | 0  | 1 tunnel         |
 | Sphere S²       | ℤ  | 0   | ℤ  | 1 cavity         |
 | Torus T²        | ℤ  | ℤ⊕ℤ | ℤ  | 2 tunnels,1 cav. |
 | Donut (solid)   | ℤ  | ℤ   | 0  | 1 tunnel         |
 +-----------------+----+-----+----+------------------+

 Connection with Euler characteristic:

   χ = rank(H₀) − rank(H₁) + rank(H₂) − ...

   For sphere: χ = 1 − 0 + 1 = 2  ✓
   For torus:  χ = 1 − 2 + 1 = 0  ✓

-------------------------------------------------------------------------------
Cohomology — a dual view through integration
-------------------------------------------------------------------------------

 Homology: "what closed surfaces are there in the space?"
 Cohomology: "what forms can be integrated over these surfaces?"

 Intuition:

   Suppose we have a 1-form ω (like df = "gradient").
   The integral ∫_γ ω depends only on the class of γ in H₁.

   If γ₁ ≃ γ₂ (homologous), then ∫_γ₁ ω = ∫_γ₂ ω.

 Closed vs exact form:

   Closed form: dω = 0
   Exact form: ω = df for some function f

   Exact ⇒ closed (because d² = 0)
   But not conversely. On spaces with holes there are closed
   but not exact forms.

 Example — dθ on the circle:

   The form dθ on S¹ is closed (d(dθ) = 0).
   But ∫_{S¹} dθ = 2π ≠ 0.

   If dθ = df, then ∫_{S¹} dθ = f(end) − f(start) = 0.
   Contradiction. Therefore dθ is not exact on S¹.

 de Rham cohomology:

   Hᵏ_dR(M) = {closed k-forms} / {exact k-forms}
            = "forms that cannot be represented as df"

 Pairing (de Rham's theorem):

   ⟨ω, γ⟩ = ∫_γ ω  — integral of form over cycle

   This gives an isomorphism: Hᵏ_dR(M) ≅ Hₖ(M; ℝ)*

   Cohomology = "linear functionals on homology"
   (duality in action)

-------------------------------------------------------------------------------
 CW-complexes — constructor for spaces
-------------------------------------------------------------------------------

 Idea: Build spaces from simple pieces — cells (disks).
       Like LEGO: start with points, attach segments, then disks, etc.

 Cells:
   0-cell = point                ●
   1-cell = open interval        ●-------●  (endpoints — 0-cells)
   2-cell = open disk            ◯  (boundary — 1-cells)
   n-cell = open n-disk          (boundary — (n−1)-cells)

 "Attaching" — what does it mean:

   Take an n-disk Dⁿ and map its boundary ∂Dⁿ = Sⁿ⁻¹
   to an already constructed skeleton X^(n-1).

   New space = X^(n-1) ∪_f Dⁿ  (gluing along f: Sⁿ⁻¹ → X^(n-1))

 Example: how to construct the sphere S²

   Method 1 (minimal):

     Step 0: One 0-cell (point) ●
     Step 2: Attach a 2-cell, entire boundary goes to this point

             ●  ----------►   ◯
          (point)         (entire boundary    (result = S²)
                           collapsed
                           to a point)

     S² = 1 zero-dimensional cell + 1 two-dimensional cell

   Method 2 (like a globe):

     poles (0-cells) + 1 meridian (1-cell) +
     hemispheres (2-cells)

 Example: how to construct the torus T²

     Torus = square with opposite sides glued:

        a --------► a              After gluing:
        |           |                    ╭-------╮
      b |           | b                 ╱         ╲
        |           |                  |  ╭-----╮  |
        ▼           ▼                  |  |     |  |
        a --------► a                   ╲ ╰-----╯  ╱
                                         ╰--------╯

     T² = 1 point + 2 loops (a and b) + 1 square
        = 1·(0-cell) + 2·(1-cell) + 1·(2-cell)

 Why CW-complexes:

   1. Easy to compute homology: H_n depends only on n-cells and (n±1)-cells
   2. Euler characteristic: χ = (number of 0-cells) − (number of 1-cells) + (number of 2-cells)
   3. Many spaces have a simple cellular structure

   For S²: χ = 1 − 0 + 1 = 2  ✓
   For T²: χ = 1 − 2 + 1 = 0  ✓

-------------------------------------------------------------------------------
 Homotopy groups of spheres — why it's hard and interesting
-------------------------------------------------------------------------------

 Question: In how many essentially different ways can one map
         one sphere to another?

 πₙ(Sᵐ) = classes of mappings Sⁿ → Sᵐ (up to deformation)

 Simple cases (intuition works):

   π₁(S¹) = ℤ:  A loop on the circle can wind 0, 1, 2, ... times.
               The winding number is an integer.

   π₁(S²) = 0:  Any loop on a sphere can be contracted to a point
               (no "hole" to catch on).

   πₙ(Sⁿ) = ℤ:  A sphere onto itself can be "wrapped" an integer number of times.
               (Degree of mapping)

-------------------------------------------------------------------------------
 Surprise: π₃(S²) = ℤ ≠ 0
-------------------------------------------------------------------------------

   It would seem: the 3-dimensional sphere is "larger" than the 2-dimensional one. Any mapping
   S³ → S² must compress the extra dimension, everything should contract.

   But no. There exists a nontrivial mapping — the Hopf fibration:

     h: S³ → S²,  where the preimage of each point is a circle S¹

   Imagine: S³ is "ruled" by non-intersecting circles,
   and each circle corresponds to a point on S².

     S³ = ⋃ (circles),  indexed by points of S²

   These circles are linked with each other. Any two are like links of a chain.

   Picture (two linked circles — fibers over two points of S²):

               ╭──────────╮
              ╱            ╲
             ╱   ╭─────────╫──────╮
            │   ╱           ╲      ╲
            │  │    ●         │      ╲
             ╲  ╲   fiber    ╱       │
              ╲  ╲  over p₁ ╱        │         ← fiber over p₂ ∈ S²
               ╲──╫────────╯         │           passes through the
                   ╲                 │           fiber over p₁;
                    ╲       ●       ╱           they cannot be
                     ╲    fiber   ╱             separated
                      ╲   over p₂╱              continuously
                       ╰────────╯

   Fibers form torus-like surfaces nested inside each other like rings.
   Every pair of fibers (over distinct points p, q ∈ S²) has linking
   number exactly 1 — this is what makes [h] ∈ π₃(S²) nontrivial:
   the map cannot be "untangled" to a constant.

   Physics: The Hopf fibration describes the topology of electron spin.
            Also: gauge fields, Dirac magnetic monopoles, instantons.

 Table of groups πₙ₊ₖ(Sⁿ):
 +-----+---+----+------+--------+-----+-----+
 | k\n | 1 | 2  | 3    | 4      | 5   | ∞   |
 +-----+---+----+------+--------+-----+-----+
 | 0   | ℤ | ℤ  | ℤ    | ℤ      | ℤ   | ℤ   |
 | 1   | 0 | ℤ  | ℤ₂   | ℤ₂     | ℤ₂  | ℤ₂  |
 | 2   | 0 | ℤ₂ | ℤ₂   | ℤ₂     | ℤ₂  | ℤ₂  |
 | 3   | 0 | ℤ₂ | ℤ₁₂  | ℤ⊕ℤ₁₂  | ℤ₂₄ | ℤ₂₄ |
 +-----+---+----+------+--------+-----+-----+

   Column ∞ — stable groups: for n ≥ k+2 the answer doesn't change.

 Why such strange numbers (ℤ₁₂, ℤ₂₄)?

   This is a deep result. Where does 24 come from? Connection with:
   • 24 = dimension of the Leech lattice (coding theory)
   • 24 divisors of modular forms (number theory)
   • 24 in Riemann's formula for ζ(−1) = −1/12 (via 2·12 = 24)

   Homotopy groups of spheres are a window into deep connections of different areas of mathematics.

-------------------------------------------------------------------------------
Stabilization and Suspension — Why the Table "Settles Down"
-------------------------------------------------------------------------------

 Suspension Σ: we take a space X and "suspend" it:

   ΣX = (X × [0,1]) / (X×{0} ~ point, X×{1} ~ point)
       = "two cones, glued along X"

   Example: ΣS⁰ = S¹  (two cones over two points = circle)
          ΣS¹ = S²  (two cones over a circle = sphere)
          ΣSⁿ = Sⁿ⁺¹

 Freudenthal Theorem:

   Suspension induces a homomorphism: Σ: πₙ₊ₖ(Sⁿ) → πₙ₊ₖ₊₁(Sⁿ⁺¹)

   For n ≥ k+2 this homomorphism is an isomorphism.

   Here k is the "stem" (k = index of homotopy group minus n).
   Example: π₃(S²) → π₄(S³) → π₅(S⁴) → ...  — all have stem k=1.
   Condition: n ≥ k+2 = 3. Starting from n=3 (i.e. π₄(S³)) the group
   stabilizes = ℤ₂.

 Stable groups πₖˢ:

   πₖˢ = lim πₙ₊ₖ(Sⁿ)  as n → ∞

   These are the "true" invariants, purified from dimensional effects.
   Computing πₖˢ is one of the main problems of algebraic topology.

 Computation tools:

   • Hurewicz Theorem: relates πₙ and Hₙ for "nice" spaces
   • Exact sequences: relate π for fibrations F → E → B
   • Spectral sequences: systematic computation method
   • Eilenberg–MacLane spaces K(G,n): standard building blocks

-------------------------------------------------------------------------------
 Euler Characteristic — A Number Determining Shape
-------------------------------------------------------------------------------

 Definition (for polyhedra):

   χ = V − E + F

   V = number of vertices
   E = number of edges
   F = number of faces

 Examples:
 +-----------+----+----+----+---+
 | FIGURE    | V  | E  | F  | χ |
 +-----------+----+----+----+---+
 | Tetrahedron | 4  | 6  | 4  | 2 |
 | Cube      | 8  | 12 | 6  | 2 |
 | Octahedron | 6  | 12 | 8  | 2 |
 | Dodecahedron | 20 | 30 | 12 | 2 |
 | Icosahedron | 12 | 30 | 20 | 2 |
 +-----------+----+----+----+---+

 Euler's Theorem: For any convex polyhedron χ = 2.

 Moreover: χ is a topological invariant. Depends only on the "shape"
 of the surface, not on the subdivision into faces.

 Euler characteristic of surfaces:
 +-----------------------+-------+---------------------------------------+
 | SURFACE               |  χ    | EXPLANATION                           |
 +-----------------------+-------+---------------------------------------+
 | Sphere S²             |  2    | "Ball": no holes                      |
 +-----------------------+-------+---------------------------------------+
 | Torus T² (donut)      |  0    | One "hole"                            |
 +-----------------------+-------+---------------------------------------+
 | Double torus          | −2    | Two "holes"                           |
 |                       |       |                                       |
 |   ╭---------------╮   |       |                                       |
 |  ╱  ╭---╮   ╭---╮  ╲  |       |                                       |
 | |   |   |   |   |   | |       |                                       |
 |  ╲  ╰---╯   ╰---╯  ╱  |       |                                       |
 |   ╰---------------╯   |       |                                       |
 |                       |       |                                       |
 +-----------------------+-------+---------------------------------------+
 | g-torus (genus g)     | 2−2g  | g "holes"                             |
 +-----------------------+-------+---------------------------------------+
 | Projective plane      |  1    | Non-orientable                        |
 | ℝP²                   |       |                                       |
 +-----------------------+-------+---------------------------------------+
 | Klein bottle          |  0    | Non-orientable, χ = 0 like torus,     |
 |                       |       | but π₁ different.                     |
 +-----------------------+-------+---------------------------------------+

 Formula: χ = 2 − 2g (for orientable surfaces of genus g)

 What is genus g?
   Genus = "number of holes" in the surface.
   Sphere: g=0 (no holes). Torus: g=1 (one hole, like in a donut).
   g-torus is obtained from a sphere by "attaching g handles".
   Formally: g = (2 − χ)/2 for orientable closed surfaces.

 Connection with other invariants:

   χ = Σ (−1)ⁿ · rank(Hₙ)     (via homology groups)

 Applications:

   • Hairy ball theorem: on S² (χ=2) you cannot comb a hedgehog
     (a vector field necessarily has zeros)
   • On a torus (χ=0) combing is possible.
   • Gauss–Bonnet formula: ∫∫ K dA = 2πχ (connection of curvature and topology)

-------------------------------------------------------------------------------
 Classification of Compact Surfaces
-------------------------------------------------------------------------------

 Connected sum M # N (operation on surfaces):
   1. Cut out a small disk from M and N
   2. Glue M and N along the boundaries of these disks
   Result: a new surface. Example: torus = S² # (handle).

 Theorem (classification):
 Every connected compact surface is homeomorphic to exactly one of:

   Orientable:
   • Sphere S² (genus 0)
   • Torus T² (genus 1)
   • Double torus (genus 2)
   • ... g-fold torus (genus g)

   Non-orientable:
   • Projective plane ℝP²
   • Klein bottle
   • ... (connected sums with ℝP²)

 Orientability — can we define "right" and "left"?

   On a sphere or torus: Yes — going around, right remains right.

   On a Möbius strip: No — going around, right becomes left.

       Möbius strip:

       Take a strip of paper,       ╭-----------------╮
       twist by 180° and            |   →  →  →  →    | ← one side
       glue the ends.               ╰-----------------╯
                                         ↓ glue with a twist
       Result: a surface            ╭-----------------╮
       with one side.               |   ←  →  →  ←    | ← the same side.
                                    ╰-----------------╯

   Klein bottle = Möbius strip, "sealed" into a tube
   (cannot be embedded in ℝ³ without self-intersection)

 Invariants distinguishing surfaces:
 +----------------+---+--------+---------------+
 | SURFACE        | χ | π₁     | ORIENTABLE?   |
 +----------------+---+--------+---------------+
 | Sphere S²      | 2 | {e}    | Yes           |
 | Torus T²       | 0 | ℤ×ℤ    | Yes           |
 | Klein bottle   | 0 | other  | No            |
 | ℝP²            | 1 | ℤ/2    | No            |
 +----------------+---+--------+---------------+

 Important: χ and π₁ together completely classify compact surfaces.


-------------------------------------------------------------------------------
Table of invariants — how to distinguish spaces
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Idea of an invariant
-------------------------------------------------------------------------------

 Problem: how to prove that two spaces are different?
   Torus ≠ sphere — this is "visible", but a rigorous argument is needed.

 Solution: assign to a space a number or a group.
   If the numbers are different → the spaces are definitely different.

 Invariant = that which does not change under deformation (without tears and gluing).


 Main invariants with explanations
+-------------------+---------------------------------------------------------+
| INVARIANT         | WHAT IT MEANS IN SIMPLE WORDS                           |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| π₀ (connectedness)| How many pieces? If the object falls apart into parts.  |
|                   | π₀(● ●) = 2 (two points), π₀(○) = 1 (one circle)        |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| π₁ (fund. group)  | Which loops cannot be contracted to a point?            |
|                   | On the plane — all loops contract: π₁ = 0               |
|                   | On the circle — loop around doesn't contract: π₁ = ℤ    |
|                   | On the torus — two independent loops: π₁ = ℤ×ℤ          |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| χ (Euler)         | Formula V − E + F for subdivision into polygons.        |
|                   | Sphere: χ = 2 (any subdivision)                         |
|                   | Torus: χ = 0                                            |
|                   | Surface with g holes: χ = 2 − 2g                        |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Orientability     | Are there "two sides"?                                  |
|                   | Sphere, torus — YES (can be painted in two colors)      |
|                   | Möbius strip, Klein bottle — no (one side)              |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Dimension         | How many numbers are needed to specify a point?         |
|                   | Line: dim = 1, plane: dim = 2, space: dim=3             |
|                   |                                                         |
+-------------------+---------------------------------------------------------+
|                   |                                                         |
| Compactness       | Bounded and closed?                                     |
|                   | Sphere — compact (finite), ℝ — no (infinite)            |
|                   |                                                         |
+-------------------+---------------------------------------------------------+

-------------------------------------------------------------------------------
 How to use
-------------------------------------------------------------------------------

 Invariant differs  →  spaces are definitely different.
   χ(sphere) = 2 ≠ 0 = χ(torus)  →  sphere ≇ torus ✓

 Invariants coincide   →  not yet a fact that they are the same.
   Need to check other invariants or look for explicit isomorphism.

 Example: How to prove that mug = torus?
   χ = 0 for both, π₁ = ℤ for both, both orientable.
   But this is not a proof. Need to construct a deformation.


-------------------------------------------------------------------------------
Summary: central concepts of topology
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Hierarchy of concepts
-------------------------------------------------------------------------------

   Set X
       |
       | + topology τ (family of "open" sets)
       ↓
   Topological space (X, τ)
       |
       +--→ Open/closed sets
       |    Boundary, interior, closure
       |
       +--→ Continuous mappings f: X → Y
       |    (preimage of open is open)
       |
       +--→ Homeomorphism (topological equivalence)
       |    (continuous bijection with continuous inverse)
       |
       +--→ Connectedness (cannot be split into two open sets)
       |
       +--→ Compactness (finite subcovers)
       |
       +--→ Invariants (π₁, Hₙ, χ, ...)
            for distinguishing spaces

-------------------------------------------------------------------------------
Connection with Other Structures
-------------------------------------------------------------------------------

                    Topology (nearness)
                         |
            + metric     |
            (distance)   |
                         ↓
                Metric space
                         |
       + lin. structure  |
         + norm (‖x‖,    |
       d(x,y) = ‖x−y‖)  ↓
              Normed space
                         |
          + completeness |
        (all limits      |
         exist)          ↓
               Banach space
                         |
        + scal. product  |
        (‖x‖²=⟨x,x⟩)    ↓
               Hilbert space

 Each level inherits topology from the previous one,
 but adds additional structure.

-------------------------------------------------------------------------------
 Practical Consequences
-------------------------------------------------------------------------------

 For engineer / practitioner:

 • Continuity of functions — key to numerical methods
   (close inputs give close outputs = stability)

 • Compactness — guarantee of existence of solutions
   (extrema exist, sequences converge)

 • Connectedness — "integrity" of system
   (is it possible to pass from one state to another?)

 • Topological invariants — "shape" of parameter space
   (how many "holes" in admissible region?)

-------------------------------------------------------------------------------
 Complete Scheme of Embedding of Spaces
-------------------------------------------------------------------------------

 Each level adds structure and restricts the class of spaces:

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   SET                                                                   |
 |       |                                                                 |
 |       | + topology τ                                                    |
 |       ↓                                                                 |
 |   TOPOLOGICAL SPACE                                                     |
 |       |                                                                 |
 |       | + axiom T₂ (Hausdorffness)                                      |
 |       ↓                                                                 |
 |   Hausdorff space (uniqueness of limits)                                |
 |       |                                                                 |
 |       | + metrizability (topology generated by metric)                  |
 |       ↓                                                                 |
 |   metric space (notion of distance)                                     |
 |       |                                                                 |
 |       | + completeness (all Cauchy seq-s converge)                      |
 |       ↓                                                                 |
 |   COMPLETE METRIC SPACE                                                 |
 |       |                                                                 |
 |       | + linear structure + norm                                       |
 |       ↓                                                                 |
 |   Banach space (complete normed)                                        |
 |       |                                                                 |
 |       | + norm from scalar product                                      |
 |       ↓                                                                 |
 |   Hilbert space (complete with scal. product)                           |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Examples at each level:
 +--------------------+----------------------------------------+
 | LEVEL              | EXAMPLES                               |
 +--------------------+----------------------------------------+
 | Topological        | ℝⁿ, any set with any topology          |
 +--------------------+----------------------------------------+
 | Hausdorff          | ℝⁿ, manifolds, but not antidiscrete    |
 +--------------------+----------------------------------------+
 | Metric             | ℝⁿ, C[0,1], ℓᵖ, any with metric        |
 +--------------------+----------------------------------------+
 | Complete metric    | ℝⁿ, C[0,1], ℓᵖ, but not ℚ, not (0,1)   |
 +--------------------+----------------------------------------+
 | Banach             | ℝⁿ, C[0,1], ℓᵖ (p≥1), Lᵖ               |
 +--------------------+----------------------------------------+
 | Hilbert            | ℝⁿ, L², ℓ², but not C[0,1], not ℓ¹     |
 +--------------------+----------------------------------------+

 Note: Lᵖ — space of functions with finite ∫|f|ᵖ. Complete definition
 requires Lebesgue integral. In ℝⁿ one can use Riemann.

-------------------------------------------------------------------------------
What is a norm
-------------------------------------------------------------------------------

 A norm ‖·‖ on a vector space V is the "length of a vector":

   • ‖x‖ ≥ 0,  moreover ‖x‖ = 0 ⟺ x = 0
   • ‖αx‖ = |α|·‖x‖           (scaling)
   • ‖x + y‖ ≤ ‖x‖ + ‖y‖      (triangle inequality)

 Norm generates a metric: d(x,y) = ‖x − y‖
 Examples: ‖x‖₂ = √(Σxᵢ²) in ℝⁿ,  ‖f‖₂ = √(∫|f|²) in L²

-------------------------------------------------------------------------------
 Metrizability — how to prove that a space is (not) metrizable
-------------------------------------------------------------------------------

 Definition:
   A topological space (X, τ) is called metrizable if
   there exists a metric d on X generating the topology τ.

-------------------------------------------------------------------------------
 Necessary conditions for metrizability (if violated — not metrizable)
-------------------------------------------------------------------------------

 1. Hausdorff property (T₂):
    A metric space is always T₂.
    ⇒ If a space is not Hausdorff — it is not metrizable.

    Example: Antidiscrete topology on {a,b} — points are inseparable.

 2. First axiom of countability:
    In a metric space each point has a countable base
    of neighborhoods (balls of radius 1/n).
    ⇒ If there is no countable base of neighborhoods — not metrizable.

 3. Sequentiality:
    In a metric space closedness is equivalent to
    sequential closedness (contains limits of its sequences).
    ⇒ If there exists sequentially closed but not closed — not metrizable.

-------------------------------------------------------------------------------
 Sufficient conditions (metrization theorems)
-------------------------------------------------------------------------------

 Two axioms of countability:

   • First (A₁): each point has a countable base of neighborhoods
     (balls of radius 1/n in a metric space)

   • Second (A₂): the entire topology has a countable base
     (any open = union of elements of a countable family)

   A₂ ⇒ A₁, but not conversely. Example: uncountable discrete space
   satisfies A₁ (base of a point = the point itself), but not A₂.

 Urysohn's theorem:
   Regular (T₃) + Second axiom of countability ⇒ metrizable.
   (Countable base of the entire topology is needed, not just neighborhoods of points)

 Nagata–Smirnov theorem:
   T₃ + σ-locally finite base ⇒ metrizable.

-------------------------------------------------------------------------------
 Strategies for proving non-metrizability
-------------------------------------------------------------------------------

 Strategy 1: Violation of T₂
   Show that two points cannot be separated by disjoint neighborhoods.
   Example: X with antidiscrete topology (τ = {∅, X}).

 Strategy 2: No countable base of neighborhoods
   Find a point for which any countable system of neighborhoods
   is not a base.
   Example: Uncountable product ∏ᵢℝ with product topology.

 Strategy 3: Sequential argument
   Find a set A which is sequentially closed
   but not topologically closed.

 Strategy 4: Compactness + uncountability
   In a compact metric space every open cover
   has a countable subcover (Lindelöf property).
   ⇒ If compact but no countable subcover — not metrizable.

-------------------------------------------------------------------------------
 Classical examples
-------------------------------------------------------------------------------

 +--------------------------+-------------+-------------------------------+
 | SPACE                    | METRIZABLE? | WHY                           |
 +--------------------------+-------------+-------------------------------+
 | ℝⁿ (standard topology)   | YES         | Euclidean metric              |
 +--------------------------+-------------+-------------------------------+
 | ℝ (Zariski topology)     | NO          | Not T₂: closed = finite       |
 +--------------------------+-------------+-------------------------------+
 | ℝ (arrow, Sorgenfrey     | NO          | Separable, but no countable   |
 | topology)                |             | base (T₂, but not 2-countable)|
 +--------------------------+-------------+-------------------------------+
 | [0,1]^[0,1] (Tychonoff   | NO          | No countable base of neighbor-|
 | cube)                    |             | hoods                         |
 +--------------------------+-------------+-------------------------------+
 | βℕ (Stone-Čech)          | NO          | Uncountable discrete subspace |
 |                          |             | in a compact                  |
 +--------------------------+-------------+-------------------------------+
 | ω₁ (first uncountable    | NO          | Sequentially compact,         |
 | ordinal)                 |             | but not compact               |
 +--------------------------+-------------+-------------------------------+

 Step-by-step example: Prove that [0,1]^ℝ is not metrizable

   1. This is an uncountable product of compacta ⇒ compact (Tychonoff).
   2. Suppose it is metrizable.
   3. Then it has a countable base of neighborhoods at each point.
   4. Consider the point x = (0, 0, 0, ...) — zero in all coordinates.
   5. A basic neighborhood depends on finitely many coordinates.
   6. Countable base ⇒ affects a countable set of coordinates.
   7. But there are uncountably many coordinates ⇒ contradiction.

 Conclusion: [0,1]^ℝ is not metrizable, because there is no countable base of neighborhoods.

-------------------------------------------------------------------------------
Applied example: connectivity of a pipeline network
-------------------------------------------------------------------------------

 Problem: City heating network. Need to understand what happens in case of failure.

            Boiler house
               ●===========●===========● District A
               |           |           |
               |           |           |
               ●===========●===========● District B
               |           |           |
               |           |           |
               ●===========●===========● District C

 Topological view:

 1. Connectivity:
    Network is connected = from any point one can reach any other.
    If failure cuts network into two parts → network becomes disconnected.

 2. Number of independent cycles = first Betti number β₁:

    β₁ = E − V + 1     (for connected graph)
    E = number of edges (pipelines)
    V = number of vertices (nodes)

    For our network: V = 9, E = 12  ⇒  β₁ = 12 − 9 + 1 = 4

    Meaning: Can disconnect 4 pipes without loss of connectivity.
    (with correct choice)

 3. Practical conclusion:

    • β₁ = 0: tree-like network, any failure disconnects part of consumers
    • β₁ > 0: ring network, there are reserve paths
    • The larger β₁, the more reliable the network (but more expensive construction)


-------------------------------------------------------------------------------
 Topological equivalence in heat exchangers:
-------------------------------------------------------------------------------

 Two heat exchangers with same flow topology — work identically.

   Pipe in pipe:      ===============     Counterflow: efficiency ~100%
                      ---------------

   Plate:             +===+ +===+        Counterflow with mixing
                      |   | |   |
                      +===+ +===+        efficiency ~95%

   Mixing:            liquids             Parallel flow (topologically
                      mix                 different) — efficiency ~50%

 Flow topology (counterflow/parallel flow/crossflow) determines
 theoretical limit of heat exchange efficiency.


Topology gives notion of closeness, but does not say how to measure and compute.
To work with space quantitatively — add vectors, solve
equations, find projections — additional structure is needed.

Linear algebra adds to space operations of addition and multiplication
by number. This makes computations possible — and this is the language of almost all physics.

===============================================================================
Linear algebra — the language of linear transformations
===============================================================================

Linear algebra adds to space flatness. Now space is not
just "connected" (topology) — it is flat, without curvature. One can draw straight
line, one can add two vectors, one can stretch vector by factor of two.

In terms of "object—observer" linear algebra — this is place where observer
appears for real for first time.

-------------------------------------------------------------------------------
Basis — this is choice of observer. Coordinates — his language.
-------------------------------------------------------------------------------

One and the same vector v exists independently of basis. But to write it
as numbers (3, 4, 5), need to choose basis. Another observer in different basis
will write same vector as (1, 2, 6). Vector did not change — notation changed.

Transition matrix between bases — this is dictionary for translation between languages
of two observers. Formula A' = P⁻¹AP says: "here is how same
operator A looks through eyes of new observer".

What is invariant (does not depend on observer):
  • Rank of matrix — how many independent directions it uses
  • Determinant — by what factor volume changes
  • Trace — sum of eigenvalues
  • Characteristic polynomial — "DNA" of operator

These invariants — real properties of the object. The concrete numbers in a matrix are
merely a notational choice, depending on the chosen basis.

-------------------------------------------------------------------------------
 Linear algebra as view on space
-------------------------------------------------------------------------------

 Linear algebra sees in space two operations:
   • Addition of vectors (can add points)
   • Multiplication by number (can stretch/compress)

 This is more structure than topology has (only closeness),
 but less than metric has (concrete distances).

 Key fact: Almost all spaces in physics and engineering — vector.
   • Forces can be added
   • Velocities can be added
   • States in quantum mechanics can be added


Linear algebra — second most important structure after sets. It describes
everything that can be "added" and "stretched": vectors, functions, matrices.

Why this is central topic:
  • Quantum mechanics lives in vector spaces
  • Nonlinear problems are linearized (derivative)
  • Data — these are vectors in ℝⁿ
  • Linear systems are solved explicitly

-------------------------------------------------------------------------------
Place in the Overall Picture
-------------------------------------------------------------------------------

 Linear algebra is the study of vector spaces and
 linear mappings between them.

 Why this is important:
   • This is the simplest structure where one can add and stretch
   • Linear problems are solvable (unlike nonlinear ones)
   • Nonlinear problems are approximated by linear ones (derivative)
   • Quantum mechanics lives in vector spaces

   +--------------------------------+
   | HIERARCHY OF TRANSFORMATIONS   |
   +--------------------------------+
   |                                |
   | Arbitrary mappings             |
   | ↓ preserve continuity          |
   | Continuous (topology)          |
   | ↓ preserve smoothness          |
   | Smooth (analysis, manifolds)   |
   | ↓ preserve linear structure    |
   | Linear  ← we are here          |
   | ↓ preserve angles and lengths  |
   | Orthogonal (group O(n))        |
   | ↓ preserve orientation         |
   | Rotations (group SO(n))        |
   |                                |
   +--------------------------------+


 Vector space — formal definition

 +-------------------------------------------------------------------+
 | DEFINITION: VECTOR SPACE                                          |
 +-------------------------------------------------------------------+
 |                                                                   |
 | A vector space over a field F is a set V with two                 |
 | operations: addition (+) and multiplication by scalar (·), such that: |
 |                                                                   |
 | addition axioms (V is an abelian group under +):                  |
 | (V1) u + v = v + u                    (commutativity)             |
 | (V2) (u + v) + w = u + (v + w)        (associativity)             |
 | (V3) ∃ 0 ∈ V: v + 0 = v              (neutral element)            |
 | (V4) ∀v ∃(−v): v + (−v) = 0          (inverse element)            |
 |                                                                   |
 | SCALAR MULTIPLICATION AXIOMS:                                     |
 | (V5) α(βv) = (αβ)v                   (associativity)              |
 | (V6) 1·v = v                         (field unity)                |
 |                                                                   |
 | DISTRIBUTIVITY AXIOMS:                                            |
 | (V7) α(u + v) = αu + αv              (over vectors)               |
 | (V8) (α + β)v = αv + βv              (over scalars)               |
 |                                                                   |
 +-------------------------------------------------------------------+

 Characteristic property: A vector space admits:
   • Adding objects (parallelogram)
   • Stretching/compressing objects (multiplication by number)
   • and these operations behave "nicely" (coherently)

 Why exactly these axioms:
   This is the minimal set of rules under which the intuition
   of "arrows that can be added and stretched" works.


 Examples of vector spaces
+-----------------+-----------------------------+---------------+-------------+
| SPACE           | ELEMENTS                    | DIMENSION     | COMMENT     |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℝⁿ              | (x₁, x₂, ..., xₙ), xᵢ ∈ ℝ    | n             | Standard    |
|                 |                             |               | example     |
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| C([a,b])        | Continuous functions f: ℝ→ℝ | ∞             | Functions — |
|                 | (f+g)(x) = f(x)+g(x)        |               | also vectors|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℝ[x]≤n          | Polynomials of degree ≤ n   | n + 1         | Basis:      |
|                 | a₀ + a₁x + ... + aₙxⁿ       |               | 1, x, x²,...|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| M_{m×n}(ℝ)      | Matrices of size m×n        | m·n           | Basis: Eᵢⱼ  |
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+
|                 |                             |               |             |
| ℂⁿ              | (z₁, ..., zₙ), zᵢ ∈ ℂ        | n (over ℂ)    | Or 2n over ℝ|
|                 |                             |               |             |
+-----------------+-----------------------------+---------------+-------------+

 Counterexample: What is not a vector space

 +-----------------------+-----------------------------------------------+
 | {(x,y) ∈ ℝ² : x ≥ 0}  | (1,0) ∈ V, but (−1)·(1,0) = (−1,0) ∉ V         |
 | (right half-plane)    | No closure under ×scalar.                     |
 +-----------------------+-----------------------------------------------+


 Linear independence and basis

 +----------------------------------------------------------+
 | DEFINITION: LINEAR COMBINATION                           |
 +----------------------------------------------------------+
 |                                                          |
 | A linear combination of vectors v₁, ..., vₖ is an expression |
 |                                                          |
 | α₁v₁ + α₂v₂ + ... + αₖvₖ,  where αᵢ ∈ F (scalars)         |
 |                                                          |
 +----------------------------------------------------------+

 +------------------------------------------------------------------+
 | DEFINITION: LINEAR INDEPENDENCE                                  |
 +------------------------------------------------------------------+
 |                                                                  |
 | Vectors v₁, ..., vₖ are linearly independent if from the equality |
 |                                                                  |
 | α₁v₁ + α₂v₂ + ... + αₖvₖ = 0                                     |
 |                                                                  |
 | it follows that α₁ = α₂ = ... = αₖ = 0.                          |
 |                                                                  |
 | In other words: the only way to obtain 0 is to take all αᵢ = 0.  |
 |                                                                  |
 +------------------------------------------------------------------+

 Geometric meaning and examples:
 +-------------------+------------------------------+
 | STATEMENT         | WHY                          |
 +-------------------+------------------------------+
 | 2 vectors LI      | ⟺ not on one line           |
 | 3 vectors LI      | ⟺ not in one plane          |
 | LD = "redundant"  | One is expressed via others  |
 +-------------------+------------------------------+

 +------------------------------------+-----------------------------------+
 | EXAMPLE IN ℝ³                      | LI OR LD?                         |
 +------------------------------------+-----------------------------------+
 | e₁=(1,0,0), e₂=(0,1,0), e₃=(0,0,1) | LI: α₁e₁+α₂e₂+α₃e₃=0 ⇒ all αᵢ=0   |
 | v₁=(1,0,0), v₂=(0,1,0), v₃=(1,1,0) | LD: v₁+v₂−v₃=0 (found nonzero)    |
 +------------------------------------+-----------------------------------+

 +-------------------------------------------------------------------+
 | DEFINITION: BASIS                                                 |
 +-------------------------------------------------------------------+
 |                                                                   |
 | A basis of space V is a set of vectors {e₁, ..., eₙ}, which:      |
 |                                                                   |
 | (1) Is linearly independent                                       |
 | (2) Spans V (any v ∈ V is expressed as v = Σ αᵢeᵢ)                |
 |                                                                   |
 | Equivalently: a basis is a minimal spanning system,               |
 | or a maximal linearly independent system.                         |
 |                                                                   |
 +-------------------------------------------------------------------+

 +--------------------------------------------------------------------+
 | THEOREM ON DIMENSION                                               |
 +--------------------------------------------------------------------+
 |                                                                    |
 | All bases of one space contain the same number of vectors.         |
 | This number is called the dimension of the space: dim(V).          |
 |                                                                    |
 +--------------------------------------------------------------------+

 Examples of dimensions:
   • dim(ℝⁿ) = n
   • dim(M_{m×n}) = m·n
   • dim(ℝ[x]≤n) = n + 1
   • dim({continuous functions}) = ∞


 Two types of bases in infinite-dimensional spaces

 +---------------+-----------------------------+------------------------+
 | TYPE          | DEFINITION                  | EXAMPLE                |
 +---------------+-----------------------------+------------------------+
 |               |                             |                        |
 | Hamel basis   | v = Σ αᵢeᵢ (finite sum)     | For C[0,1] such basis  |
 | (algebraic)   | Each vector — finite        | is uncountable. Cannot |
 |               | linear combination          | explicitly construct.  |
 |               |                             |                        |
 +---------------+-----------------------------+------------------------+
 |               |                             |                        |
 | Schauder basis| v = Σ αᵢeᵢ (infinite        | {1, x, x², ...} for    |
 | (topological) | convergent series)          | analytic functions     |
 |               | Topology is required.       | {sin nx, cos nx} — L²  |
 |               |                             |                        |
 +---------------+-----------------------------+------------------------+

 Why this is important:
   • In algebra by default Hamel basis
   • In Fourier series and functional analysis — Schauder basis
   • dim_Hamel(L²) = uncountable, dim_Schauder(L²) = countable (if separable)

 One and the same space has different "dimensions" depending on which
 type of basis is used.


 Linear mapping — preserving structure

 +------------------------------------------------------------------+
 | DEFINITION: LINEAR MAPPING                                       |
 +------------------------------------------------------------------+
 |                                                                  |
 | A mapping T: V → W is called linear if:                          |
 |                                                                  |
 | (L1) T(u + v) = T(u) + T(v)      (preserves addition)            |
 | (L2) T(αv) = αT(v)               (preserves scalar multiplication)|
 |                                                                  |
 | Equivalently (in one formula):                                   |
 |                                                                  |
 | T(αu + βv) = αT(u) + βT(v)       (preserves linear combinations) |
 |                                                                  |
 +------------------------------------------------------------------+

 Consequences from the definition:
 +---------------------+-------------------------------+
 | PROPERTY            | WHY                           |
 +---------------------+-------------------------------+
 | T(0) = 0            | T(0·v) = 0·T(v) = 0           |
 | T(−v) = −T(v)       | T((−1)·v) = (−1)·T(v)         |
 | T(Σαᵢvᵢ) = ΣαᵢT(vᵢ) | Multiple application of L1+L2 |
 +---------------------+-------------------------------+

 Key fact: T is completely determined by values on a basis.
   If we know T(e₁),...,T(eₙ), then T(v) = T(Σαᵢeᵢ) = ΣαᵢT(eᵢ)

 Examples of linear mappings:
 +-------------------+---------------------------+-------------------+
 | MAPPING           | FORMULA                   | WHERE USED        |
 +-------------------+---------------------------+-------------------+
 | Rotation by θ     | (x,y) ↦ (x·cosθ−y·sinθ,    | Geometry, physics |
 |                   |         x·sinθ+y·cosθ)     |                   |
 | Projection on x-axis | (x,y) ↦ (x, 0)         | Shadow, components|
 | Differentiation   | p ↦ p' for p ∈ ℝ[x]       | Analysis          |
 | Integration       | p ↦ ∫p                    | Analysis          |
 | Multiplication by A | v ↦ Av                  | Systems of equations |
 +-------------------+---------------------------+-------------------+

 Counterexample: T(x,y)=(x+1, y) — not linear. T(0,0)=(1,0)≠(0,0)


 Matrix — linear mapping in coordinates

 +=================================================================+
 | Main mistake of engineers: a matrix is not a tensor.            |
 +=================================================================+
 |                                                                 |
 | A matrix is a table of numbers, a record of coordinates of something in a basis. |
 | One and the same 3×3 matrix can represent:                      |
 |                                                                 |
 | • Linear operator T: V → V    (tensor of type (1,1))            |
 | • Bilinear form B: V×V → ℝ  (tensor of type (0,2))              |
 | • Quadratic form Q(v)       (tensor of type (0,2))              |
 | • Just a set of coefficients    (not a tensor at all)           |
 |                                                                 |
 | without specifying what it is — a matrix is meaningless under basis change. |
 | Different objects transform according to different laws:        |
 |                                                                 |
 | A' = P⁻¹AP    (operator)     vs     A' = PᵀAP    (form)         |
 |                                                                 |
 | Confusion here is the source of half the errors in mechanics and physics. |
 +=================================================================+

 Key idea: Matrix = record of T in chosen bases
                Changed basis → matrix changed, but T is the same.

 Construction: T: V → W, basis {eⱼ} in V, basis {fᵢ} in W
   T(eⱼ) = Σᵢ aᵢⱼfᵢ  →  j-th column of A = coordinates of T(eⱼ) in {fᵢ}

 Example: Rotation by 90° in ℝ²
 +-----------------+----------------+------------------------+
 | BASIS VECTOR    | IMAGE          | MATRIX COLUMN          |
 +-----------------+----------------+------------------------+
 | e₁ = (1,0)      | T(e₁) = (0,1)  | (0, 1)ᵀ — 1st column   |
 | e₂ = (0,1)      | T(e₂) = (−1,0) | (−1, 0)ᵀ — 2nd column  |
 +-----------------+----------------+------------------------+

   Matrix: A = | 0  −1|   Check: A|1| = |0| = T(1,0) ✓
               | 1   0|            |0|   |1|

 +---------------------------------------------------------+
 | THEOREM: T ↔ A, S ↔ B  ⇒  S∘T ↔ BA  (order reversed)   |
 +---------------------------------------------------------+

 Isomorphism: Choice of bases gives bijection
   Hom(V, W) ≅ M_{m×n}(F)
 where Hom(V, W) — space of linear mappings V → W,
     M_{m×n}(F) — space of matrices m×n over field F,
     m = dim(W), n = dim(V).

 Important: Isomorphism depends on choice of bases. Different bases → different
 matrices for one operator. Connection: A' = P⁻¹AP (basis change).


 Critical warning (common mistake)

 The law A' = P⁻¹AP holds for a linear operator (tensor of type (1,1)).

 For a quadratic/bilinear form (tensor of type (0,2)) the law is different:

   A' = PᵀAP   (not P⁻¹, but Pᵀ.)

 +-------------------+--------------------------------+
 | OBJECT            | TRANSFORMATION LAW             |
 +-------------------+--------------------------------+
 | Linear operator   | A' = P⁻¹AP                     |
 | T: V → V          | (matrix similarity)            |
 +-------------------+--------------------------------+
 | Bilinear form     | A' = PᵀAP                      |
 | B: V × V → ℝ      | (matrix congruence)            |
 +-------------------+--------------------------------+
 | Metric gᵢⱼ        | g'ᵢⱼ = (∂xᵏ/∂x'ⁱ)(∂xˡ/∂x'ʲ)gₖₗ  |
 | (tensor (0,2))    | (two lower indices)            |
 +-------------------+--------------------------------+

 Where this is critical: When computing eigenvalues of a quadratic form
 (moment of inertia, stress tensor) use PᵀAP, not P⁻¹AP.

 Types of tensors


 Physical meaning: matrix connects different quantities


 Matrix-vector multiplication w = Av has two fundamentally different meanings:

-------------------------------------------------------------------------------
Meaning 1: active transformation — the vector actually changes
-------------------------------------------------------------------------------

   Was vector v, became different vector w = Av
   Physically: rotated, stretched, deformed the object itself

   Examples:
   • Rotated a rod by 30° (rotation matrix)
   • Stretched a spring (deformation matrix)
   • Changed velocity in a collision

-------------------------------------------------------------------------------
 Meaning 2: passive transformation — vector is the same, coordinates change
-------------------------------------------------------------------------------

   Was vector v with coordinates (3, 4) in old basis
   Same vector has coordinates (1.5, 4) in new basis
   Physically: nothing changed, just recalculated the numbers

   Examples:
   • Measured length in meters, then in feet
   • Switched from Cartesian coordinates to polar
   • Changed reference frame (from train → from ground)

-------------------------------------------------------------------------------
 Meaning 3: matrix as physical law — connection between different quantities
-------------------------------------------------------------------------------

 This is the main application in physics and engineering.
 Matrix describes how one vector quantity generates another.

 +-------------------------------------------------------------------+
 | THERMAL CONDUCTIVITY MATRIX  q = −λ·∇T                            |
 +-------------------------------------------------------------------+
 |                                                                   |
 | ∇T — temperature gradient (vector, K/m): "where and how fast      |
 | temperature grows"                                                |
 | q  — heat flux (vector, W/m²): "where and how much heat flows"    |
 | λ  — thermal conductivity matrix                                  |
 | (later we'll learn this is a "rank-2 tensor")                     |
 |                                                                   |
 | In isotropic material (metal, water):                             |
 | λᵢⱼ = λ·δᵢⱼ  (scalar × identity matrix)                           |
 | Heat flows along gradient (in direction of decreasing T)          |
 |                                                                   |
 | In anisotropic material (wood, crystal, layered insulation):      |
 |     ⎛λₓₓ  λₓᵧ  λₓᵤ⎞                                                |
 | λ = ⎜λᵧₓ  λᵧᵧ  λᵧᵤ⎟                                                |
 |     ⎝λᵤₓ  λᵤᵧ  λᵤᵤ⎠                                                |
 |                                                                   |
 | Heat can flow not along gradient.                                 |
 | Heat from one side — heat goes sideways.                          |
 |                                                                   |
 +-------------------------------------------------------------------+

 +---------------------------------------------------------------+
 | STRESS MATRIX  σ                                              |
 +---------------------------------------------------------------+
 |                                                               |
 | n — normal to surface (vector, direction)                     |
 | F = σ·n — force per unit area (vector, N/m²)                  |
 | σ — stress matrix 3×3                                         |
 |                                                               |
 |                                                               |
 | σ says: "if surface is oriented like this (n),                |
 | then force on it will be like this (F)"                       |
 |                                                               |
 | This is not one force — this is rule for all possible surfaces.|
 | σ contains complete information about stress state at point.  |
 |                                                               |
 +---------------------------------------------------------------+

 +------------------------------------------------------------------+
 | INERTIA MATRIX  I                                                |
 +------------------------------------------------------------------+
 |                                                                  |
 | ω — angular velocity (vector): "around which axis and how fast"  |
 | L = I·ω — angular momentum (vector)                              |
 | I — inertia matrix 3×3                                           |
 |                                                                  |
 |                                                                  |
 | For symmetric body (sphere, cube):                               |
 | L ∥ ω  (momentum parallel to angular velocity)                   |
 |                                                                  |
 | For asymmetric body (dumbbell at angle):                         |
 | L and ω not parallel.                                            |
 | Rotate around one axis — momentum directed in other direction.   |
 | (This is why wheels are balanced — removes off-diagonal elements I)|
 |                                                                  |
 +------------------------------------------------------------------+

 +----------------------------------------------------------------+
 | ABOUT VECTOR FIELD                                             |
 +----------------------------------------------------------------+
 |                                                                |
 | If there is a field of vectors v(x,y,z) (e.g., wind velocity):   |
 |                                                                |
 | • one matrix A for all points: global transformation           |
 | A = rotation → entire field rotated                            |
 | A = stretching → entire field stretched                        |
 | Physically: changed coordinate system                          |
 |                                                                |
 | • different matrix A(x,y,z) at each point: local deformation   |
 | This is a field of matrices (later we'll learn: "tensor field")  |
 | Example: strain tensor in material under load                  |
 | At each point its own stretching/shear                         |
 |                                                                |
 +----------------------------------------------------------------+

 Bottom line: Matrix is not just "table of numbers", but:
   • Either transformation (active or passive)
   • Or physical law connecting cause and effect


 Kernel and image — main subspaces

 +---------------------------------------------------------------+
 | DEFINITIONS                                                   |
 +---------------------------------------------------------------+
 |                                                               |
 | For linear T: V → W:                                          |
 |                                                               |
 | kernel:  ker(T) = {v ∈ V : T(v) = 0}  (what maps to zero)     |
 | image:   Im(T) = {T(v) : v ∈ V}       (where we land)         |
 |                                                               |
 | Both are subspaces (closed under + and ·).                    |
 |                                                               |
 +---------------------------------------------------------------+

 +--------------------------------------------+
 | DIMENSION THEOREM (Rank-Nullity)           |
 +--------------------------------------------+
 |                                            |
 | dim(V) = dim(ker T) + dim(Im T)            |
 | ↑              ↑                           |
 | nullity         rank                       |
 | (defect)         (rank)                    |
 |                                            |
 | "Dimension of domain = losses + result"    |
 |                                            |
 +--------------------------------------------+

 Example: Projection T: ℝ³ → ℝ³, T(x,y,z) = (x,y,0)

   ker(T) = {(0,0,z) : z ∈ ℝ} = z-axis         dim(ker T) = 1
   Im(T) = {(x,y,0) : x,y ∈ ℝ} = xy-plane      dim(Im T) = 2

   Check: 3 = 1 + 2 ✓

 Geometric intuition:

   V (3-dimensional)               W (target space)
   +-------------------+
   |      ╱╲           |
   |     ╱  ╲ ker(T)   |
   |    ╱    ╲ = z-axis|           +-----------------+
   |   ╱      ╲        |    T      |                 |
   |  ╱ plane  ╲       | --------▶ |    Im(T)        |
   | ╱   xy     ╲      |           |  = plane        |
   |╱------------╲     |           |                 |
   +-------------------+           +-----------------+

   dim(V) = 3
   dim(ker T) = 1  (what "collapses" to 0)
   dim(Im T) = 2   (what "survives")

   Theorem: 3 = 1 + 2  ✓

   Meaning: Space V "splits" into two parts:
          - ker T (what is lost)
          - complement (what maps to image 1-1)

 Connection to systems of equations:

 +---------+-------------------------------------------+
 | CONCEPT | WHAT IT MEANS                             |
 +---------+-------------------------------------------+
 | ker(A)  | Solutions of Ax = 0 (homogeneous system)  |
 | Im(A)   | Linear span of columns of A               |
 | rank(A) | Number of nonzero rows in row echelon form|
 +---------+-------------------------------------------+

 +----------------------+-----------------------------------------+
 | PROPERTY OF T        | CONDITION                               |
 +----------------------+-----------------------------------------+
 | Injective (1-1)      | ker(T) = {0}                            |
 | Surjective (onto)    | Im(T) = W                               |
 | Bijective (isomorph.)| ker={0} and Im=W ⟺ dim V = dim W, det ≠ 0|
 +----------------------+-----------------------------------------+


Kernel and image — universal structure


 The structure (ker, Im) is present for any morphism between structures:

+----------------+--------------+-----------------+-------------------+
| BRANCH         | OPERATOR     | KER             | IM                |
+----------------+--------------+-----------------+-------------------+
| Lin. algebra   | T: V → W     | ker T ⊂ V       | Im T ⊂ W          |
| Group theory   | φ: G → H     | ker φ ⊲ G       | Im φ ≤ H          |
| Diff. forms    | d: Ωᵏ → Ωᵏ⁺¹ | ker d (closed)  | Im d (exact)      |
| XXI Diff. eq.  | L: C∞ → C∞   | ker L (solutions)| Im L (reachable) |
| QM (physics)   | Ĥ−E          | ker(Ĥ−E)=state  | spectrum={E: ker≠0}|
+----------------+--------------+-----------------+-------------------+

 Dimension theorem: dim(V) = dim(ker T) + dim(Im T)

 Cohomology: Hᵏ = ker(dₖ) / Im(dₖ₋₁)

 Eigenvalues and eigenvectors

 +---------------------------------------------------------------+
 | DEFINITION                                                    |
 +---------------------------------------------------------------+
 |                                                               |
 | Nonzero vector v is called eigenvector for T (or A), if       |
 |                                                               |
 | T(v) = λv   (or Av = λv)                                      |
 |                                                               |
 | Number λ is called eigenvalue.                                |
 |                                                               |
 +---------------------------------------------------------------+

 Geometric meaning of eigenvalues:

 +--------------+----------------------+--------------------------------+
 | VALUE λ      | GEOM. ACTION         | EXAMPLE                        |
 +--------------+----------------------+--------------------------------+
 | λ > 1        | Stretching           | λ=2: elongation by factor of 2 |
 | 0 < λ < 1    | Compression          | λ=0.5: compression by half     |
 | λ = 1        | Unchanged            | Direction preserved            |
 | λ = 0        | Collapse (to 0)      | Projection destroys this dir.  |
 | λ < 0        | Reflection + scale   | λ=-1: pure reflection          |
 | |λ| = 1      | Isometry/reflection  | Preserves length               |
 +--------------+----------------------+--------------------------------+

 How to find:

   Av = λv  ⟺  (A − λI)v = 0  ⟺  v ∈ ker(A − λI)

   For ker ≠ {0}, need det(A − λI) = 0.

   Characteristic polynomial: p(λ) = det(A − λI)
   Eigenvalues = roots of p(λ).

 Example: A = |3  1|
             |0  2|

   det(A − λI) = det|3−λ   1 | = (3−λ)(2−λ) − 0 = λ² − 5λ + 6
                    | 0   2−λ|

   Roots: λ₁ = 3, λ₂ = 2

   For λ₁ = 3:  (A−3I)v = 0 → |0  1||v₁| = 0 → v₂ = 0 → v₁ = (1,0)
                              |0 −1||v₂|

   For λ₂ = 2:  (A−2I)v = 0 → |1  1||v₁| = 0 → v₁ = −v₂ → v₂ = (−1,1)
                              |0  0||v₂|

 Invariants (independent of basis):

   det(A) = λ₁ · λ₂ · ... · λₙ  (product of eigenvalues)
   tr(A) = λ₁ + λ₂ + ... + λₙ   (sum of eigenvalues)

-------------------------------------------------------------------------------
Diagonalization — choosing the "right" basis
-------------------------------------------------------------------------------

 Idea:
   In a basis of eigenvectors, the matrix becomes diagonal.

 +-------------------------------------------------------------------------+
 | DIAGONALIZATION THEOREM                                                 |
 +-------------------------------------------------------------------------+
 |                                                                         |
 | Matrix A is diagonalizable ⟺ there exists a basis of eigenvectors.      |
 |                                                                         |
 | Then A = PDP⁻¹, where:                                                  |
 |   P = [v₁ | v₂ | ... | vₙ] — matrix of eigenvectors                     |
 |   D = diag(λ₁, λ₂, ..., λₙ) — diagonal of eigenvalues                   |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Why is this needed:

 +--------------------------+--------------------------------------------+
 | PROBLEM                  | HOW IT HELPS                               |
 +--------------------------+--------------------------------------------+
 | Matrix powers Aⁿ         | PD^nP⁻¹, where Dⁿ = diag(λ₁ⁿ,...,λₙⁿ)      |
 | Differential equations   | eᴬᵗ is computed via diagonal               |
 | Stability analysis       | Behavior as t→∞ depends on |λᵢ|            |
 +--------------------------+--------------------------------------------+

 Diagonalizability conditions:

 +------------------------+----------------------------------------+
 | SITUATION              | DIAGONALIZABLE?                        |
 +------------------------+----------------------------------------+
 | All λᵢ distinct        | YES (sufficient, not necessary)        |
 | Multiple λ, but enough | YES (example: I, where λ=1 mult. n)    |
 | eigenvectors           |                                        |
 | Not enough eigenvect.  | no → Jordan form                       |
 | Example: A = [0 1; 0 0]| NO (λ=0 mult. 2, only 1 vector)        |
 +------------------------+----------------------------------------+

-------------------------------------------------------------------------------
 Connection with groups
-------------------------------------------------------------------------------

 Invertible matrices form a group GL(n) — general linear group

   +-----------+------------------+---------------------------------+
   | SUBGROUP  | CONDITION        | WHAT IT PRESERVES               |
   +-----------+------------------+---------------------------------+
   | GL(n)     | det(A) ≠ 0       | Linear structure                |
   | SL(n)     | det(A) = 1       | + volume                        |
   | O(n)      | AᵀA = I          | + lengths and angles            |
   | SO(n)     | AᵀA = I, det=1   | + orientation                   |
   | U(n)      | A*A = I (complex)| Hermitian inner product         |
   | SU(n)     | A*A = I, det=1   | + volume (quantum mechanics)    |
   +-----------+------------------+---------------------------------+

 det: GL(n) → ℝ* — this is a group homomorphism
 ker(det) = SL(n) — kernel of the homomorphism

 Connection with Lie groups:
   GL(n), O(n), SO(n), U(n), SU(n) — these are all Lie groups
   (simultaneously groups and manifolds)

-------------------------------------------------------------------------------
 Matrix exponential — key to systems of differential equations
-------------------------------------------------------------------------------

 Definition:
 +---------------------------------------------+
 |                                             |
 | e^A = I + A + A²/2! + A³/3! + ... = Σ Aⁿ/n! |
 |                                             |
 | (series always converges for any matrix A)  |
 |                                             |
 +---------------------------------------------+

 Why is it needed:
   System of linear DEs  ẋ = Ax  has solution  x(t) = e^{At}·x(0)

 Computation (if A is diagonalizable):

   A = PDP⁻¹,  where D = diag(λ₁, λ₂, ..., λₙ)

   e^A = P · diag(e^{λ₁}, e^{λ₂}, ..., e^{λₙ}) · P⁻¹

 Properties:
   • e^0 = I
   • e^{A+B} = e^A·e^B  only if AB = BA.
   • (e^A)⁻¹ = e^{−A}
   • d/dt e^{At} = A·e^{At}
   • det(e^A) = e^{tr(A)}

 Example for thermophysics:

   System of n rooms with temperatures T₁, T₂, ..., Tₙ:
   Ṫ = A·T, where A — matrix of thermal conductivities

   Solution: T(t) = e^{At}·T(0)

   Eigenvalues of A (all negative) → decay rates
   Eigenvectors of A → "modes" of the system (which rooms heat together)

 Connection with Lie groups:
   e^A maps Lie algebra gl(n) into Lie group GL(n)
   This is the exponential map — foundation of Lie group theory


 One object — three perspectives
+------------------------+---------------------+------------------------+
| ALGEBRA                | GEOMETRY            | ANALYSIS               |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Matrix A               | Transformation      | System of linear       |
| (table of numbers)     | of space            | equations Ax = b       |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| det(A)                 | Coefficient of      | Condition for          |
| (number)               | volume change       | solvability            |
|                        | + sign of orient.   | (det≠0 ⟺ ∃! solution)  |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Eigenvector v          | Invariant           | Solution of            |
| Av = λv                | direction           | (A−λI)v = 0            |
|                        | (does not rotate)   |                        |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Eigenvalue λ           | Stretching          | Root of charact.       |
|                        | coefficient along v | polynomial det(A−λI)=0 |
|                        |                     |                        |
+------------------------+---------------------+------------------------+
|                        |                     |                        |
| Diagonalization        | Choice of "right"   | Separation of          |
| A = PDP⁻¹              | basis (of eigen-    | variables              |
|                        | vectors)            |                        |
|                        |                     |                        |
+------------------------+---------------------+------------------------+

-------------------------------------------------------------------------------
Formulas for calculations
-------------------------------------------------------------------------------

 Determinant 2×2:   det|a  b| = ad − bc
                       |c  d|

 Determinant 3×3:   Expansion along the first row:

   det|a  b  c| = a·det|e  f| − b·det|d  f| + c·det|d  e|
      |d  e  f|        |h  i|        |g  i|        |g  h|
      |g  h  i|

 Inverse 2×2:       |a  b|⁻¹ =   1   | d  −b|
                    |c  d|    ------ |−c   a|
                             ad−bc

 Gaussian method:   Reduction to row echelon form by elementary
                    row operations

 Eigenvalues: solve det(A − λI) = 0

 Eigenvectors: for each λ solve (A − λI)v = 0

 Diagonalization: A = PDP⁻¹, where P = [v₁|v₂|…|vₙ] from eigenvectors


 SVD — singular value decomposition (king of decompositions)


 Problem: Diagonalization A = PDP⁻¹ works only for square matrices,
          and not even for all of them (need a full set of eigenvectors).

 Solution: SVD works for any m×n matrix!

 +----------------------------------------------------------------------+
 | THEOREM (SVD): Any matrix A ∈ ℝᵐˣⁿ decomposes as                     |
 |                                                                      |
 | A = UΣVᵀ                                                             |
 |                                                                      |
 | where:                                                               |
 | • U ∈ ℝᵐˣᵐ — orthogonal (UᵀU = I), columns = left sing. vectors     |
 | • Σ ∈ ℝᵐˣⁿ — diagonal, σ₁ ≥ σ₂ ≥ ... ≥ 0 (singular values)          |
 | • V ∈ ℝⁿˣⁿ — orthogonal (VᵀV = I), columns = right sing. vectors    |
 +----------------------------------------------------------------------+

 Geometric meaning:
   Any linear transformation = rotation U × stretching Σ × rotation Vᵀ

      +---+   Vᵀ    +---+    Σ     ╱╲      U     ◇
      |   |  ---→   |   |  ---→   ╱  ╲   ---→   ╱ ╲
      +---+ rotation +---+ stretch ╲  ╱ rotation ╲ ╱
      square        square          ╲╱            ◇
                                 ellipse      ellipse (rotated)

 Connection with eigenvalues:
   • σᵢ² = eigenvalues of AᵀA (or AAᵀ)
   • Columns of V = eigenvectors of AᵀA
   • Columns of U = eigenvectors of AAᵀ

 Applications (why SVD is the "king"):
 +-----------------+----------------------------------------------+
 | PROBLEM         | HOW TO USE SVD                               |
 +-----------------+----------------------------------------------+
 | Data compression| A ≈ Σᵣ σᵢuᵢvᵢᵀ (keep first r terms)          |
 | (images)        | Error = σᵣ₊₁ (Eckart–Young theorem)          |
 +-----------------+----------------------------------------------+
 | PCA             | Principal components = right sing. vectors V |
 | (data analysis) | (for centered data)                          |
 +-----------------+----------------------------------------------+
 | Pseudoinversion | A⁺ = VΣ⁺Uᵀ, where Σ⁺ᵢᵢ = 1/σᵢ (for σᵢ ≠ 0)  |
 | (least squares) | Solution of Ax≈b: x = A⁺b                    |
 +-----------------+----------------------------------------------+
 | Matrix rank     | rank(A) = number of nonzero σᵢ               |
 +-----------------+----------------------------------------------+
 | Matrix norm     | ‖A‖₂ = σ₁ (maximum singular value)           |
 |                 | ‖A‖_F = √(Σσᵢ²) (Frobenius norm)             |
 +-----------------+----------------------------------------------+
 | Condition number| cond(A) = σ₁/σₙ (sensitivity to errors)      |
 +-----------------+----------------------------------------------+

 Comparison with diagonalization:
   • Diagonalization: A = PDP⁻¹ (only square, doesn't always exist)
   • SVD: A = UΣVᵀ (any matrices, always exists)

 Special case: symmetric positive definite
   For A = Aᵀ > 0:  SVD coincides with diagonalization.
   • U = V = P (matrix of eigenvectors)
   • σᵢ = λᵢ (singular values = eigenvalues)
   • A = PΛPᵀ = UΣVᵀ — this is the same thing.

   For symmetric (not necessarily pos. def.): σᵢ = |λᵢ|


 Applications

+---------------------+----------------------------------------------------------+
| FIELD               | HOW LINEAR ALGEBRA IS USED                               |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| diff. equations     | y' = Ay → solution y(t) = eᴬᵗy₀                          |
| (stability)         | Re(λ)>0: growth, Re(λ)<0: decay, Re(λ)=0: oscill.     |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| quantum mechanics   | Observables = Hermitian operators (A = A*)               |
|                     | Eigenvalues = measurement results                        |
|                     | Eigenvectors = states                                    |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| data analysis (PCA) | Covariance matrix C = (1/n)XᵀX                           |
|                     | Eigenvectors = principal components                      |
|                     | Eigenvalues = variance along directions                  |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| graphs and networks | PageRank = principal eigenvector                         |
|                     | Spectral clustering = e.v. of Laplacian                  |
|                     |                                                          |
+---------------------+----------------------------------------------------------+
|                     |                                                          |
| mechanics           | Natural frequencies of oscillations = √λ                 |
|                     | Modes of oscillations = eigenvectors                     |
|                     |                                                          |
+---------------------+----------------------------------------------------------+

-------------------------------------------------------------------------------
Dual space V* (brief introduction)
-------------------------------------------------------------------------------

 Definition:
   V* = {φ: V → ℝ | φ linear} — set of all linear functions on V

 Example: V = ℝ³
   φ(x, y, z) = 2x + 3y − z  — element of V* (linear function)
   Action: φ(1, 0, 2) = 2·1 + 3·0 − 1·2 = 0

 Facts (for finite-dimensional V):
   • dim(V*) = dim(V)  Only for finite-dimensional.
   • Basis of V*: functions eⁱ(eⱼ) = δⁱⱼ (1 if i=j, otherwise 0)
   • Element of V* is called a covector or linear functional

 For infinite-dimensional: dim(V*) can be greater than dim(V).
    Example: V = ℓ¹ (absolutely summable: Σ|xₙ|<∞), V* = ℓ∞ (bounded sequences)

 Why:
   • Tensors live on V* × ... × V* × V × ... × V
   • Differential df — element of cotangent space T*ₚM
   • In detail (Duality)

-------------------------------------------------------------------------------
 Connection with other sections
-------------------------------------------------------------------------------

 Groups:
   GL(n), O(n), SO(n) — matrix groups
   Representation theory: group → matrices

 Manifolds:
   TₚM — tangent space = vector space
   Locally linear algebra works.

 Duality:
   V* — dual space (linear functionals on V)
   Matrix rows ↔ columns of transpose

 Tensors:
   Tensor of rank 2 = linear map = matrix (in basis)

 Series:
   Functions = vectors of infinite-dimensional space
   Fourier coefficients = coordinates in orthonormal basis

-------------------------------------------------------------------------------
 Applied example: thermal balance of heating system
-------------------------------------------------------------------------------

 Problem: Building with 4 rooms. Heat losses and heat transfer between
 rooms are known. Find temperatures in steady state.

         T₁ ======+          Heat losses to outside: αᵢ·(Tᵢ − Tₒᵤₜ)
         |        |          Heat exchange between: kᵢⱼ·(Tᵢ − Tⱼ)
    Qₕₑₐₜ₁  T₂ ==+== T₃
         |        |          Heat from heating: Qᵢ
         T₄ ======+

 Balance equations (for each room):

   Qᵢ = αᵢ(Tᵢ − Tₒᵤₜ) + Σⱼ kᵢⱼ(Tᵢ − Tⱼ)
   "Supply = losses to outside + heat exchange with neighbors"

 This is a linear system. Write in matrix form:

   +                              +   +    +     +              +
   | α₁+k₁₂+k₁₄   −k₁₂   0   −k₁₄ |   | T₁ |     | Q₁ + α₁·Tₒᵤₜ |
   | −k₁₂   α₂+k₁₂+k₂₃  −k₂₃   0  | · | T₂ |  =  | Q₂ + α₂·Tₒᵤₜ |
   |   0    −k₂₃  α₃+k₂₃+k₃₄  −k₃₄|   | T₃ |     | Q₃ + α₃·Tₒᵤₜ |
   | −k₁₄    0    −k₃₄  α₄+k₁₄+k₃₄|   | T₄ |     | Q₄ + α₄·Tₒᵤₜ |
   +                              +   +    +     +              +

                    K · T = Q

 Numerical example:
   α₁ = α₂ = α₃ = α₄ = 100 W/K (heat losses)
   k₁₂ = k₂₃ = k₃₄ = k₁₄ = 50 W/K (heat exchange between rooms)
   Tₒᵤₜ = 0°C, Q₁ = 3000 W (heating only in room 1)

   Matrix K:
   +                     +
   | 200  −50    0   −50 |
   | −50  200  −50    0  |
   |   0  −50  200  −50  |
   | −50    0  −50  200  |
   +                     +

   Solution: T = K⁻¹ · Q
   T₁ = 20°C, T₂ = 10°C, T₃ = 5°C, T₄ = 10°C

-------------------------------------------------------------------------------
 Eigenvalues — relaxation modes
-------------------------------------------------------------------------------

 If we turn off heating, temperatures will drop.
 How exactly? Solution: T(t) = Σ cᵢ · vᵢ · e^(−λᵢt)

   λᵢ = eigenvalues of K  (relaxation rates)
   vᵢ = eigenvectors of K   (modes — like "shape" of cooling)

   • Smallest λ₁ → slowest mode (entire building together)
   • Largest λₙ → fastest mode (equalization between rooms)

 Moral: Linear algebra is the language of thermal calculations.
 Thermal conductivity matrix + eigenvalues = complete understanding of system.


We learned to add vectors and multiply them by numbers. But how to multiply
vectors by each other? It turns out there is no single answer — different
problems require different products. This is the key to understanding tensors.

-------------------------------------------------------------------------------
Products of vectors — different questions, different answers
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Why so many types of multiplication
-------------------------------------------------------------------------------

 Numbers: 2 × 3 = 6. One way of multiplication.

 Vectors: What do we want to know about two vectors?

   • How codirectional are they?          → Scalar ·    → number
   • What is perpendicular to both?       → Cross ×   → vector
   • All combinations of components?      → Tensor ⊗   → matrix
   • What area do they span?              → Outer ∧     → bivector

 Different questions require different operations.

+-----------------+-----------+-----------------------------------------------+
| PRODUCT         | RESULT    | QUESTION / GEOMETRIC MEANING                  |
+-----------------+-----------+-----------------------------------------------+
| u · v           | number    | "How codirectional are u and v?" = |u||v|cos θ|
| u × v           | vector    | "What is ⊥ to both?" (only in ℝ³ and ℝ⁷.)    |
| u ⊗ v           | matrix    | "All combinations of components?" (u⊗v)ᵢⱼ = uᵢvⱼ|
| u ∧ v           | bivector  | "What area do they span?" (any dimension.)    |
+-----------------+-----------+-----------------------------------------------+

 Main distinction: inner vs outer product

 +-----------------+---------------------------+-------------------------+
 |                 | INNER (·, contraction)    | OUTER (⊗, ∧)            |
 +-----------------+---------------------------+-------------------------+
 | Rank change     | DECREASES                 | INCREASES               |
 |                 | vector×vector → scalar    | vector×vector → matrix  |
 +-----------------+---------------------------+-------------------------+
 | Meaning         | CODIRECTIONALITY          | NEW OBJECT              |
 |                 | "how parallel"            | in space of higher      |
 |                 |                           | dimension               |
 +-----------------+---------------------------+-------------------------+
 | Formula         | aᵢbⁱ (contraction on index)| (a⊗b)ᵢⱼ = aᵢbⱼ         |
 +-----------------+---------------------------+-------------------------+

 Remember: Inner — "contracts", outer — "expands".

-------------------------------------------------------------------------------
Why does the vector product exist only in ℝ³ and ℝ⁷?
-------------------------------------------------------------------------------

 This is a deep result connected with division algebras over ℝ:

   dim 1:  ℝ (real numbers)
   dim 2:  ℂ (complex numbers)
   dim 4:  ℍ (quaternions) — non-commutative
   dim 8:  𝕆 (octonions) — non-associative

 and that's all. No other division algebras over ℝ exist (Hurwitz's theorem).

-------------------------------------------------------------------------------
 What comes next? (Cayley–Dickson doubling)
-------------------------------------------------------------------------------

   Dim 16: 𝕊 (sedenions) — have zero divisors.
           ab = 0, but a ≠ 0 and b ≠ 0
           Also lose alternativity

   One can continue doubling infinitely (dim 32, 64, ...), but each time
   more and more properties are lost. Division algebras end at 𝕆.

 Hierarchy of losses:
   ℝ → ℂ:   lost orderability
   ℂ → ℍ:   lost commutativity (ab ≠ ba)
   ℍ → 𝕆:   lost associativity ((ab)c ≠ a(bc))
   𝕆 → 𝕊:   lost absence of zero divisors (ab = 0, a,b ≠ 0)

 Connection with vector product:

   In ℝ³:  u × v is related to quaternions ℍ
          (multiplication of imaginary parts of quaternions)

   In ℝ⁷:  u × v is related to octonions 𝕆
          (multiplication of imaginary parts of octonions)

 Difference: In ℝ⁷ the vector product does not satisfy the Jacobi identity:
   u × (v × w) + v × (w × u) + w × (u × v) ≠ 0

   Consequence: (ℝ⁷, ×) is not a Lie algebra, unlike (ℝ³, ×) = so(3)

 This emphasizes the uniqueness of dimensions 1, 2, 3, 4, 7, 8.


 Scalar product — formal definition

 +------------------------------------------------------------------------+
 | DEFINITION: SCALAR PRODUCT                                             |
 +------------------------------------------------------------------------+
 |                                                                        |
 | A scalar product on a vector space V (over ℝ) is a                     |
 | function ⟨·,·⟩: V × V → ℝ, satisfying:                                  |
 |                                                                        |
 | (S1) ⟨u, v⟩ = ⟨v, u⟩                         (symmetry)                 |
 |                                                                        |
 | (S2) ⟨αu + βv, w⟩ = α⟨u, w⟩ + β⟨v, w⟩        (linearity in 1st arg.)     |
 |                                                                        |
 | (S3) ⟨v, v⟩ ≥ 0, and ⟨v, v⟩ = 0 ⟺ v = 0     (positive definiteness)    |
 |                                                                        |
 | A space V with a scalar product is called Euclidean                    |
 | (or pre-Hilbert).                                                      |
 |                                                                        |
 +------------------------------------------------------------------------+

 Why precisely these axioms are needed:
 +---------------+----------------------------------------------+
 | AXIOM         | GEOMETRIC MEANING                            |
 +---------------+----------------------------------------------+
 | S1 symmetry   | Angle between u and v = angle between v and u|
 | S2 linearity  | Projection of sum = sum of projections       |
 | S3 positive   | Length ≥ 0, and = 0 only for zero vector     |
 +---------------+----------------------------------------------+

 Examples of scalar products:
 +------------------+-----------------------------+
 | SPACE            | FORMULA ⟨u, v⟩               |
 +------------------+-----------------------------+
 | Standard ℝⁿ      | Σᵢ uᵢvᵢ = u₁v₁ + ... + uₙvₙ |
 | With weights     | Σᵢ wᵢuᵢvᵢ, where wᵢ > 0    |
 | Functions on [a,b]| ∫ₐᵇ f(x)g(x) dx             |
 +------------------+-----------------------------+

 Counterexample: ⟨u,v⟩ = u₁v₁ − u₂v₂ — not a scalar product.
 Check: ⟨(0,1),(0,1)⟩ = −1 < 0 ✗ (this is a pseudo-Euclidean metric from GR)

-------------------------------------------------------------------------------
 Chain: scalar product → norm → metric
-------------------------------------------------------------------------------

 Scalar product generates all geometry:

   Scalar product ⟨u, v⟩
            |
            | ‖v‖ = √⟨v, v⟩
            ↓
         Norm ‖·‖ (vector length)
            |
            | d(u, v) = ‖u − v‖
            ↓
        Metric d(·,·) (distance between points)
            |
            ↓
       Topology (notion of closeness, open sets)

 Important: This chain goes in one direction only.

   • Not every metric is generated by a norm (ex: discrete metric)
   • Not every norm is generated by a scalar prod. (ex: ‖v‖ = max|vᵢ|)

 +-------------------------------------------------------------------------+
 | CAUCHY–BUNYAKOVSKY–SCHWARZ INEQUALITY                                   |
 +-------------------------------------------------------------------------+
 |                                                                         |
 |   |⟨u, v⟩| ≤ ‖u‖ · ‖v‖                                                   |
 |                                                                         |
 | Equality ⟺ u and v are proportional (lie on the same line).            |
 |                                                                         |
 | consequence: |cos θ| = |⟨u,v⟩|/(‖u‖‖v‖) ≤ 1  — angle is well-defined.  |
 |                                                                         |
 +-------------------------------------------------------------------------+

 +-------------------------------+
 | TRIANGLE INEQUALITY           |
 +-------------------------------+
 |                               |
 | ‖u + v‖ ≤ ‖u‖ + ‖v‖           |
 |                               |
 | "Shortest path — along a line"|
 |                               |
 +-------------------------------+


 Orthogonality — geometry from algebra

 +----------------------------------------------------------------+
 | DEFINITION: ORTHOGONALITY                                      |
 +----------------------------------------------------------------+
 |                                                                |
 | Vectors u and v are orthogonal (perpendicular) if ⟨u, v⟩ = 0.  |
 | Notation: u ⊥ v                                                |
 |                                                                |
 +----------------------------------------------------------------+

 Key facts:
 +-------------------------+--------------------------------+
 | CONCEPT                 | FORMULA / MEANING              |
 +-------------------------+--------------------------------+
 | Orthogonality u ⊥ v     | ⟨u,v⟩ = 0 ⟺ θ = 90°            |
 | Orthonormal basis       | ⟨eᵢ,eⱼ⟩ = δᵢⱼ (0 or 1)        |
 | Coordinate in ONB       | vᵢ = ⟨v,eᵢ⟩ (simply projection)|
 +-------------------------+--------------------------------+

 Gram–Schmidt process (any basis → orthonormal):
 +-----+---------------------------------+--------------+
 | STEP| ORTHOGONALIZATION               | NORMALIZATION|
 +-----+---------------------------------+--------------+
 | 1   | u₁ = v₁                         | e₁ = u₁/‖u₁‖ |
 | 2   | u₂ = v₂ − ⟨v₂,e₁⟩e₁              | e₂ = u₂/‖u₂‖ |
 | 3   | u₃ = v₃ − ⟨v₃,e₁⟩e₁ − ⟨v₃,e₂⟩e₂    | e₃ = u₃/‖u₃‖ |
 | k   | uₖ = vₖ − Σᵢ₌₁ᵏ⁻¹⟨vₖ,eᵢ⟩eᵢ         | eₖ = uₖ/‖uₖ‖ |
 +-----+---------------------------------+--------------+

-------------------------------------------------------------------------------
Scalar product — geometric interpretation
-------------------------------------------------------------------------------

 Formula in ℝⁿ:  u · v = u₁v₁ + u₂v₂ + ... + uₙvₙ = Σᵢ uᵢvᵢ

 Geometry: u · v = |u| × (length of projection of v onto u)

              v
             ╱|
            ╱ |
           ╱  |
          ╱   |         u·v = |u| × |v|cos θ
         ╱ θ  |
     ---●-----+----→ u
        +-----+
         projection = |v|cos θ

 Physics: Work W = F · s (force × displacement in direction of force)

 Connection with metric:
   Scalar product defines a metric — a way to measure.
     |v|² = v · v  (length)
     cos θ = (u·v)/(|u||v|)  (angle)

 On a manifold:
   Metric tensor gᵢⱼ — this is the scalar product of basis vectors:
   gᵢⱼ = ⟨∂/∂xⁱ, ∂/∂xʲ⟩


 Vector product u × v — only in ℝ³.


 Formula:  u × v = (u₂v₃−u₃v₂, u₃v₁−u₁v₃, u₁v₂−u₂v₁)

 Mnemonic via determinant:

         | i   j   k  |
   u×v = | u₁  u₂  u₃ | = i(u₂v₃−u₃v₂) − j(u₁v₃−u₃v₁) + k(u₁v₂−u₂v₁)
         | v₁  v₂  v₃ |

 Properties:

 +-----------------------------+-----------------------------------------+
 | PROPERTY                    | CONSEQUENCE                             |
 +-----------------------------+-----------------------------------------+
 | u × v ⊥ u, u × v ⊥ v        | Result is perpendicular to both         |
 | |u × v| = |u||v|sin θ       | = area of parallelogram                 |
 | u × v = −(v × u)            | Anticommutative.                        |
 | u × u = 0                   | Vector × itself = 0                     |
 | (u×v)×w ≠ u×(v×w)           | Not associative.                        |
 +-----------------------------+-----------------------------------------+

 Applications in physics:

 +-------------------+------------+
 | QUANTITY          | FORMULA    |
 +-------------------+------------+
 | Torque            | τ = r × F  |
 | Magnetic force    | F = qv × B |
 | Linear velocity   | v = ω × r  |
 +-------------------+------------+

 Why only in ℝ³:
   Result must be a vector of the same dimension.
   In ℝ² there is no "perpendicular direction" (it would be in ℝ³)
   In ℝⁿ (n>3) there are too many perpendicular directions (n−2 dimensions)

   Mathematically: dim(∧²ℝⁿ) = n(n−1)/2 = n only when n = 3

 Generalization: Exterior product ∧ works in any dimension.

-------------------------------------------------------------------------------
 Exterior product u ∧ v — works everywhere
-------------------------------------------------------------------------------

 Idea: u ∧ v = oriented area of parallelogram on u and v
 Result: Bivector ∈ ∧²V (not a vector)

 Properties:
 +-----------------------+-----------------------------------+
 | PROPERTY              | GEOMETRIC MEANING                 |
 +-----------------------+-----------------------------------+
 | u ∧ v = −v ∧ u        | Orientation change with swap      |
 | u ∧ u = 0             | Degenerate parallelogram          |
 | (u+v) ∧ w = u∧w + v∧w | Linearity (like area)             |
 | (αu) ∧ v = α(u ∧ v)   | Scaling of area                   |
 +-----------------------+-----------------------------------+

 In coordinates: u ∧ v = Σᵢ<ⱼ (uᵢvⱼ − uⱼvᵢ) eᵢ ∧ eⱼ
 Dimension: dim(∧²ℝⁿ) = C(n,2) = n(n−1)/2

 Connection with × in ℝ³: Components coincide. But u×v ∈ ℝ³, while u∧v ∈ ∧²ℝ³
 Transformation: *(u ∧ v) = u × v (Hodge star)

-------------------------------------------------------------------------------
 Important for engineers: normal vs bivector
-------------------------------------------------------------------------------

   Engineers are used to: flux through surface = ∬ F·n dS
   where n — unit normal to surface (vector sticking outward).

   Diff. forms replace this with: ∬ ω  (2-form on surface)
   2-form = bivector = "oriented area element of tangent plane"

   In ℝ³ normal and bivector — dual descriptions of the same thing.
   Hodge star (*) converts one to the other: *(dx∧dy) = dz.

   But: bivector is more honest, because it doesn't require "ambient
   space". On a surface in ℝ³ one can indicate a normal (exit into 3D).
   On an abstract manifold without embedding — one cannot. But a bivector one can.

 Applications:
 +---------------------+-------------------------------------+
 | WHERE               | HOW IT'S USED                       |
 +---------------------+-------------------------------------+
 | Diff. forms         | Integration on manifolds            |
 | Determinant         | det = e₁∧e₂∧...∧eₙ (n-dim volume)   |
 | Maxwell's equations | Elegant notation via forms          |
 | Any dimension       | Works everywhere (unlike ×)         |
 +---------------------+-------------------------------------+

 Higher degrees: u∧v∧w ∈ ∧³V — oriented volume of parallelepiped

-------------------------------------------------------------------------------
 Tensor product u ⊗ v — all combinations
-------------------------------------------------------------------------------
Idea: Write all possible products of components uᵢvⱼ → matrix

 Example: u=(u₁,u₂), v=(v₁,v₂) → u⊗v = |u₁v₁  u₁v₂|
                                       |u₂v₁  u₂v₂|

 Properties:
 +------------------------------+---------------------------------+
 | PROPERTY                     | CONSEQUENCE                     |
 +------------------------------+---------------------------------+
 | Not commutative: u⊗v ≠ v⊗u   | u⊗v = (v⊗u)ᵀ (transposition)    |
 | Bilinear                     | (αu+βw)⊗v = α(u⊗v)+β(w⊗v)       |
 | rank(u⊗v) = 1 (if u,v ≠ 0)   | Any rank-1 matrix = u⊗v         |
 | Matrix rank r = Σ uᵢ⊗vᵢ      | This is SVD decomposition.      |
 +------------------------------+---------------------------------+

 Applications:
 +---------------------------------+-------------------------------------+
 | WHERE                           | HOW                                 |
 +---------------------------------+-------------------------------------+
 | Tensors from vectors            | General construction method         |
 | Metric on manifold              | g = gᵢⱼ dxⁱ⊗dxʲ                     |
 | Quantum mechanics               | |ψ⟩ = |ψ₁⟩⊗|ψ₂⟩ (2 particles)        |
 | Entanglement                    | not every ψ = ψ₁⊗ψ₂ .               |
 +---------------------------------+-------------------------------------+


 Summary table of products
+--------------+-----------+-------------+---------------------------+
| PRODUCT      | RESULT    | DIMENSION   | MAIN PROPERTY             |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u · v        | scalar    | 1           | Symmetric: u·v = v·u      |
| (scalar)     |           |             | Generates metric          |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u × v        | vector    | 3 (and 7)   | Antisymm: u×v = −v×u      |
| (cross)      |           |             | Perpendic. to both        |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u ∧ v        | bivector  | n(n−1)/2    | Antisymm: u∧v = −v∧u      |
| (exterior)   |           |             | Generalization × to any n |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+
|              |           |             |                           |
| u ⊗ v        | matrix    | n²          | Not commut: u⊗v = (v⊗u)ᵀ  |
| (tensor)     |           |             | All combinations uᵢvⱼ     |
|              |           |             |                           |
+--------------+-----------+-------------+---------------------------+

 Connection with other sections
+------------------+------------------------------------------------+
| SECTION          | HOW PRODUCTS WORK THERE                        |
+------------------+------------------------------------------------+
|                  |                                                |
| Manifolds        | ⟨·,·⟩ → metric gᵢⱼ = ⟨∂/∂xⁱ, ∂/∂xʲ⟩              |
| (metric)         | How to measure distances on curved surfaces    |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Manifolds        | ∧ → diff. forms on manifold                    |
| (integration)    | dx∧dy = area, dx∧dy∧dz = volume                |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Tensors          | ⊗ → construction of tensors from vectors       |
|                  | g = gᵢⱼ dxⁱ⊗dxʲ, energy-momentum tensor        |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Lin. algebra     | ⟨·,·⟩ → orthogonality, Gram–Schmidt            |
|                  | Orthonormal basis simplifies computations      |
|                  |                                                |
+------------------+------------------------------------------------+
|                  |                                                |
| Fourier series   | ⟨f,g⟩ = ∫f(x)g(x)dx — scalar prod. of functions |
|                  | Fourier coeff. = projections on orthonorm. bas |
|                  |                                                |
+------------------+------------------------------------------------+

 Hierarchy of spaces:
   Vector space → [+⟨,⟩] → Euclidean → [+completeness] → Hilbert


 Applied example: three problems — three products

-------------------------------------------------------------------------------
Problem 1: pump work (scalar product)
-------------------------------------------------------------------------------

   Pump creates force F = (0, 0, −1000) N (downward)
   Water moves by d = (0, 0, 5) m (upward)

   Work = F · d = 0·0 + 0·0 + (−1000)·5 = −5000 J

   Minus means: force is directed against motion (pump does work).
   Scalar product answers the question: "How much energy?"

-------------------------------------------------------------------------------
 Problem 2: torque on shaft (vector product)
-------------------------------------------------------------------------------

   Wrench handle: r = (0.3, 0, 0) m (from axis)
   Applied force: F = (0, 100, 0) N (perpendicular)

   Torque = r × F = (0·0 − 0·100,  0·0 − 0.3·0,  0.3·100 − 0·0)
                   = (0, 0, 30) N·m

   Torque is directed along rotation axis (z axis).
   Vector product answers the question: "Where and how strongly does it rotate?"

-------------------------------------------------------------------------------
 Problem 3: flow through cross-section (exterior product / area)
-------------------------------------------------------------------------------

   Rectangular pipe cross-section: edges a = (0.5, 0, 0) m, b = (0, 0.3, 0) m

   Cross-sectional area = |a × b| = |(0, 0, 0.15)| = 0.15 m²

   Or via exterior product: a ∧ b = 0.15 · (dx∧dy)
   This is a 2-form — an object that "eats" a pair of vectors and yields area.

   If flow velocity v = (0, 0, 2) m/s:
   Volume flow rate = v · S = 2 · 0.15 = 0.3 m³/s


 Summary: which product for which problem

   +------------------+--------------+---------------------------------+
   | QUESTION         | PRODUCT      | EXAMPLE FROM THERMOPHYSICS      |
   +------------------+--------------+---------------------------------+
   | How much energy? | Scalar ·     | Pump work, power                |
   | Where rotates?   | Vector ×     | Torque on shaft, flow vortex    |
   | What area?       | Exterior ∧   | Pipe cross-section, H/E surface |
   | All combinations?| Tensor ⊗     | Stress tensor, conductivity     |
   +------------------+--------------+---------------------------------+

We saw different products: scalar gives number, tensor gives matrix.
But where does this asymmetry come from — number vs object? Answer: scalar
product is pairing of vector and covector. What is a covector?

This leads to fundamental idea of duality: every space
has a "shadow" — space of linear functions on it.

===============================================================================
Duality — fundamental symmetry of mathematics
===============================================================================

-------------------------------------------------------------------------------
 Duality as view on space
-------------------------------------------------------------------------------

 Every space V generates dual space V* — space
 of linear functions on V. This is like "shadow" of original space.

   V  = space of vectors (directions, displacements)
   V* = space of covectors (gradients, "prices per unit")

 Two spaces — but connected by deep symmetry.
 This symmetry manifests everywhere: in physics, geometry, algebra.


Duality — one of the deepest ideas of mathematics. Before giving
formal definitions, let's start with physical intuition.

-------------------------------------------------------------------------------
Physical intuition: covectors as "prices"
-------------------------------------------------------------------------------

Key to understanding — analogy with physical dimensions.

Basis vector = Unit of measurement

 What is a basis? It is a set of "standards", units of measurement.

   e₁ = "1 meter in x direction"
   e₂ = "1 second"
   e₃ = "1 kilogram"

 Vector is quantity measured in these units:

   v = 5e₁ + 3e₂ = "5 meters and 3 seconds"

 Numbers (5, 3) are components of vector. Vector v itself is physical
 quantity that exists independently of choice of units.

-------------------------------------------------------------------------------
 Covector = "price per unit" (density)
-------------------------------------------------------------------------------

 Covector ω is neither number nor vector.
 A covector is a function that takes a vector and yields a number.

 Physical analogy: price per unit.

   ω = "10 rubles per meter"

 This is not number 10 — this is rule: "take length in meters, multiply by 10".

 How covector acts on vector:

   v = 5 meters
   ω(v) = (10 rub/m) × (5 m) = 50 rubles  ← this is already number.

 Formally:
   ω: V → ℝ,   ω(v) = ωᵢvⁱ = ω₁v¹ + ω₂v² + ...

 Other examples of "prices":
   • Pressure = "force per unit area" [N/m²]
   • Density = "mass per unit volume" [kg/m³]
   • Temperature gradient = "change in T per unit length" [K/m]

 All these quantities — covectors: they "eat" extensive quantity
 (area, volume, displacement) and yield number.

-------------------------------------------------------------------------------
Why components transform oppositely
-------------------------------------------------------------------------------

 Let's switch from meters to centimeters: new unit e'₁ = e₁/100.

 Vector "5 meters":
   Old units: v = 5 m = 5 e₁
   New units:  v = 500 cm = 500 e'₁

   Component increased by factor of 100.
   (Unit became smaller → need more units)

 Covector "10 rubles per meter":
   Old units: ω = 10 rub/m
   New units:  ω = 0.1 rub/cm

   Component decreased by factor of 100.
   (Unit became smaller → price per unit also smaller)

 Check — result does not depend on units:
   ω(v) = 10 rub/m × 5 m = 50 rub
   ω(v) = 0.1 rub/cm × 500 cm = 50 rub  ✓

 This is the key property:
   ω(v) — invariant, does not depend on choice of units (basis).
   For this to work, components of ω and v must change oppositely.

-------------------------------------------------------------------------------
 Tangent space — the correct picture
-------------------------------------------------------------------------------

 Consider paraboloid z = f(x,y) = x² + y².
 At point p = (1, 0, 1) the tangent plane TₚM is literally
 the plane that touches the surface at this point.

           z
           ↑          tangent plane at p
           |          z = 2x − 1  (marked with ≡≡≡)
           |
           |            ≡≡≡≡≡≡≡≡≡≡≡≡
           |           ≡          ●≡  ← point p = (1, 0, 1)
           |        ╱            ╱
           |       ╱ paraboloid ╱
           |      ╱  z = x²+y² ╱
           |     ╱____________╱
           |    ╱            ╱
           |   ╲____________╱  ← curve of intersection
           |    ╲__________╱      with plane z = 1
           +-------────────+-----→ x
          ╱                |
         ╱                 p projected to xy: (1, 0)
        y
                    (paraboloid shown only from above for clarity)

 Equation of tangent plane:
   z = f(1,0) + fₓ(1,0)·(x−1) + fᵧ(1,0)·(y−0)
   z = 1 + 2·(x−1) + 0·(y−0) = 2x − 1

 Vector in TₚM is an arrow lying in the tangent plane.
 Gradient ∇f is one such arrow (direction of greatest increase).

-------------------------------------------------------------------------------
 Cotangent space — what is it?
-------------------------------------------------------------------------------

 T*ₚM is the space of all "prices per unit displacement" at point p.

 If TₚM answers the question "where can one go?" (directions),
 then T*ₚM answers the question "how much does it cost to go?" (linear functions).

 Specifically for the paraboloid at point p = (1, 0, 1):

 Differential df is a covector that says:
 "If you displace by vector v, function f will change by df(v)".

   df = fₓ dx + fᵧ dy = 2dx + 0dy = 2dx

 Take vector v = (3, 4) in the tangent plane.
   df(v) = 2·3 + 0·4 = 6

 This means: with displacement by v function f will increase approximately by 6.

 Geometrically: df is "level lines with marking".
 df(v) = how many level lines vector v crosses.

     ==============  level lines f = const
     ==============
        →v          vector crosses several lines
     ==============
     ==============

-------------------------------------------------------------------------------
 Gradient vs differential — arrow vs marking
-------------------------------------------------------------------------------

 ∇f (gradient) — vector:
   • Lives in tangent space TₚM
   • This is an arrow pointing in direction of greatest increase of f
   • Components: (∇f)ⁱ = gⁱʲ ∂f/∂xʲ  (need metric)
   • Dimension: [units of f / units of length], but it is a vector

 Df (differential) — covector:
   • Lives in cotangent space T*ₚM
   • This is a function: "how much f will change with displacement by v"
   • Components: (df)ᵢ = ∂f/∂xⁱ  (metric not needed)
   • Dimension: [units of f / units of length], but it is a covector

 Connection:
   df(v) = ⟨∇f, v⟩ = g(∇f, v)
   ∇f = "raised" df using metric: (∇f)ⁱ = gⁱʲ(df)ⱼ

 Why they're confused:
   In Euclidean space with orthonormal basis gⁱʲ = δⁱʲ,
   therefore components of ∇f and df numerically coincide.
   But conceptually these are different objects.

   ∇f — arrow (direction)
   df — marking (function on directions)

 Key point: df exists always (for differentiable f).
   ∇f exists only if metric g is given.
   Without metric one can talk about df, but not about ∇f.

-------------------------------------------------------------------------------
 Dual basis = prices for basis units
-------------------------------------------------------------------------------

 If {e₁, e₂, ..., eₙ} — basis of V (units of measurement),
 then dual basis {ε¹, ε², ..., εⁿ} are "prices":

   ε¹ = "1 ruble per unit of e₁, 0 for the rest"
   ε² = "1 ruble per unit of e₂, 0 for the rest"

 Formally:
   εⁱ(eⱼ) = δⁱⱼ = { 1, if i = j
                  { 0, if i ≠ j

 Then εⁱ "selects" the i-th component of a vector:
   v = v¹e₁ + v²e₂ + ... + vⁿeₙ
   ε²(v) = v²  ← second component

 Example:
   Basis: e₁ = "1 meter", e₂ = "1 second"
   Dual basis: ε¹ = "select meters", ε² = "select seconds"
   Vector: v = (5 m, 3 s) = 5e₁ + 3e₂
   ε¹(v) = 5,  ε²(v) = 3

 On a manifold:
   Basis of TₚM: {∂/∂x, ∂/∂y, ...} — directions of coordinate lines
   Dual basis of T*ₚM: {dx, dy, ...} — differentials of coordinates
   dx(∂/∂y) = 0,  dx(∂/∂x) = 1


 Final table: vector vs covector
+-----------------------+-------------------------+---------------------------+
|                       | VECTOR v                | COVECTOR ω                |
+-----------------------+-------------------------+---------------------------+
| Physical analogy      | Quantity                | Price per unit            |
|                       | (5 meters)              | (10 rub/meter)            |
+-----------------------+-------------------------+---------------------------+
| Dimension             | [m], [s], [kg]          | [1/m], [1/s], [1/kg]      |
+-----------------------+-------------------------+---------------------------+
| Where it lives        | Tangent TₚM             | Cotangent T*ₚM            |
+-----------------------+-------------------------+---------------------------+
| Geometric image       | Arrow                   | Marking (level lines)     |
+-----------------------+-------------------------+---------------------------+
| When measurement      | Components grow         | Components fall           |
| units become smaller  | (m→cm: ×100)            | (m→cm: ÷100)              |
+-----------------------+-------------------------+---------------------------+
| Examples              | Velocity, displacement, | Differential df,          |
|                       | gradient ∇f             | momentum p, pressure      |
+-----------------------+-------------------------+---------------------------+
| Index                 | Upper: vⁱ               | Lower: ωᵢ                 |
+-----------------------+-------------------------+---------------------------+
| Basis                 | {∂/∂x¹, ∂/∂x², ...}     | {dx¹, dx², ...}           |
+-----------------------+-------------------------+---------------------------+
| Product               |       ω(v) = ωᵢvⁱ = NUMBER (invariant)              |
+-----------------------+-------------------------+---------------------------+

-------------------------------------------------------------------------------
Examples of Covectors in Physics
-------------------------------------------------------------------------------

 1. differential of a function df
    "Change of f per unit displacement"
    df(v) = how much f will change when displaced by v

 2. momentum p in mechanics
    p = ∂L/∂q̇ — this is a covector, not a vector.
    Work = p·v = pᵢvⁱ — must be a scalar (number)
    Therefore if v — vector, then p — covector

 3. wave covector k
    Wave phase φ = k·x = kᵢxⁱ — must be a scalar
    k defines "direction" through surfaces of equal phase

 4. pressure, stress
    "Force per unit area" — price per area

 General principle:
    If quantity A·B must be an invariant (number),
    and A — vector, then B — covector.

-------------------------------------------------------------------------------
Duality — what is it
-------------------------------------------------------------------------------

 Duality — definition and applications


 Two ways to describe the same thing:

   Points of space                 Functions on space
   -----------------               -----------------------
   "Where is it located?"          "What can be measured?"

 Example 1: Map of terrain
   • Points on map (places)
   • Contour lines of height (height functions)
   One and the same mountain is described both by points of the peak and by level lines.

 Example 2: Vector vs linear function
   • Vector v = (3, 4) — "arrow" in space
   • Function φ(x,y) = 3x + 4y — "measurer", gives number for any point

   Important: Identification v ↔ φ requires scalar product (metric).
   Formula: φ(u) = ⟨v, u⟩. Without metric vector and covector — different objects.
   Isomorphism V ≅ V* (Riesz–Fréchet theorem) exists only in Hilbert
   spaces. In general, V* ≠ V as structures.

 Example 3: Time and frequency
   • Signal in time: f(t)
   • Spectrum (frequencies): f̂(ω)
   Fourier transform — transition between dual descriptions

 Key idea:
   To study space = to study functions on it
   These two approaches are equivalent and complement each other

-------------------------------------------------------------------------------
 What is duality
-------------------------------------------------------------------------------

 Duality is a correspondence between two mathematical structures,
 in which:

   • Each object A corresponds to a "dual" object A*
   • Each operation corresponds to a "dual" operation
   • (A*)* ≅ A (dual to dual = original)

 Deep meaning:
   Space and functions on it are equal descriptions.
   One can study points, or one can study "tests" (what can be measured).


-------------------------------------------------------------------------------
Dual vector space
-------------------------------------------------------------------------------

 Definition: dual space


 Let V — vector space over field F.

 Dual space V* = Hom(V, F) is the set of all
 linear functionals on V:

   V* = {φ: V → F | φ linear}

 Structure:
   • (φ + ψ)(v) = φ(v) + ψ(v)
   • (αφ)(v) = α·φ(v)

 V* itself is a vector space.

-------------------------------------------------------------------------------
 Dual basis
-------------------------------------------------------------------------------

 Let {e₁, ..., eₙ} — basis of V.

 Dual basis {e¹, ..., eⁿ} of space V* is defined:

   eⁱ(eⱼ) = δⁱⱼ = { 1, if i = j
                  { 0, if i ≠ j

 Properties:
   • dim(V*) = dim(V) only for finite-dimensional (for counterexample)
   • Any φ ∈ V* expands: φ = φ(eᵢ)·eⁱ = φᵢeⁱ
   • Action on vector: φ(v) = φᵢvⁱ (contraction)

 Example: V = ℝ³ with basis e₁ = (1,0,0), e₂ = (0,1,0), e₃ = (0,0,1)

   e¹(x,y,z) = x       (projection onto first coordinate)
   e²(x,y,z) = y       (projection onto second coordinate)
   e³(x,y,z) = z       (projection onto third coordinate)

-------------------------------------------------------------------------------
 Canonical isomorphism V ≅ V**
-------------------------------------------------------------------------------

 For finite-dimensional spaces there exists a canonical isomorphism:

   ι: V → V**
   ι(v)(φ) = φ(v)

 "Vector v is a functional on functionals, which evaluates them at v"

 Important:
   • V ≅ V* requires choice of basis (or scalar product)
   • V ≅ V** is canonical (does not require choice)

 In infinite-dimensional case:
   • For Banach spaces: V ↪ V** (embedding, not isomorphism)
   • V = V** is called reflexive space
   • Lᵖ is reflexive for 1 < p < ∞, but L¹ and L∞ are not


-------------------------------------------------------------------------------
Duality in different areas
-------------------------------------------------------------------------------

 Preliminary explanations


 In the table below there are terms that are worth clarifying:

 Hₖ(X) — homology — algebraic invariants, counting "holes" in space
   H₀ counts connected components (how many "pieces")
   H₁ counts "tunnels" (can one go around and return nontrivially)
   H₂ counts "cavities" (closed voids inside)
   Formally: Hₖ = ker(∂ₖ)/Im(∂ₖ₊₁) — "cycles that are not boundaries"

 Hᵏ(X) — cohomology — dual to homology (functions on cycles)
   de Rham cohomology: classes of closed forms ω (dω=0) modulo exact

   Intuition via potential: closed form is a field that locally
   looks like gradient (one can find potential on small piece). Exact
   form is a field that globally is gradient (potential
   exists everywhere). Cohomology measures obstructions (holes) preventing
   local potential from becoming global.

 Kronecker pairing: ⟨·,·⟩: Hᵏ(X) × Hₖ(X) → ℝ
   Intuitively: cohomology "measures" homology — integral of form over cycle

 S¹ = {z ∈ ℂ : |z| = 1} — unit circle in complex plane

-------------------------------------------------------------------------------
Table of Dualities
-------------------------------------------------------------------------------

 Important: These are different types of duality, united by a common pattern.

 +--------------------+-------------------------------------+
 | TYPE OF DUALITY    | EXAMPLES FROM TABLE BELOW           |
 +--------------------+-------------------------------------+
 | Algebraic          | V ↔ V*, rows ↔ columns              |
 | (lin. algebra)     |                                     |
 +--------------------+-------------------------------------+
 | Pontryagin         | G ↔ Ĝ (group ↔ character group)     |
 | (top. groups)      |                                     |
 +--------------------+-------------------------------------+
 | Poincaré           | Hₖ ↔ Hⁿ⁻ᵏ (homology ↔ cohomology)   |
 | (topology)         |                                     |
 +--------------------+-------------------------------------+
 | Categorical        | F ↔ Fᵒᵖ (covariant ↔ contravariant) |
 | (category theory)  |                                     |
 +--------------------+-------------------------------------+

 Common: everywhere there is a pairing ⟨·,·⟩ → number. But the details are substantially different.

+-------------------+---------------------+--------------------------------+
| OBJECT            | DUAL                | CONNECTING MAPPING             |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Vector v ∈ V      | Covector φ ∈ V*     | φ(v) ∈ F (pairing)             |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Matrix row        | Matrix column       | Transposition Aᵀ               |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Point x ∈ X       | Function f: X → ℝ   | f(x) (value at point)          |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Abelian group G   | Character group     | χ: G → S¹ (homomorphism        |
|                   | Ĝ = Hom(G, S¹)      | to unit circle)                |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Time t            | Frequency ω         | Fourier: e^{iωt}               |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Position q        | Momentum p          | Hamiltonian mechanics          |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| TₚM (tangent)     | T*ₚM (cotangent)    | df(v) = v(f)                   |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Hₖ(X) (homology)  | Hᵏ(X) (cohomology)  | ⟨ω, c⟩ = ∫_c ω (integral)        |
| "cycles"          | "forms"             |                                |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| ∪ (union)         | ∩ (intersection)    | De Morgan's laws:              |
| ∨ (or)            | ∧ (and)             | ¬(A∪B) = ¬A ∩ ¬B               |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Point (in project.| Hyperplane          | Point ↔ set of lines through it|
| geometry)         |                     |                                |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+
|                   |                     |                                |
| Functor F: C → D  | Contravar. functor  | F(f: A→B) gives F(f): F(B)→F(A)|
| (covariant)       | F: Cᵒᵖ → D          | (arrow reverses)               |
|                   |                     |                                |
+-------------------+---------------------+--------------------------------+

 Main idea of duality

 In all examples above one object "measures" another through pairing:

   ⟨dual, original⟩ → number

 This is like thermometer and temperature, ruler and length, scales and mass.
 The dual object is a "measuring instrument" for the original.


-------------------------------------------------------------------------------
Pontryagin Duality
-------------------------------------------------------------------------------

 Explanation: What is a "locally compact" group

 A locally compact group is a topological group (group +
 topology, compatible with each other), in which every point has
 a compact neighborhood.

 Compactness — boundedness + closedness (in ℝⁿ). Intuitively: can be
 "covered by a finite number of small balls".

 Examples of locally compact groups:
   • ℝ, ℝⁿ — yes (any point has a closed ball around it)
   • ℤ — yes (discrete topology, each point is itself compact)
   • S¹ — yes (compact as a whole)
   • GL(n,ℝ) — yes (open subset of ℝⁿ²)

 Examples of non-locally compact:
   • Infinite-dimensional Banach spaces (unit ball is not compact)

 Why this is needed:
   On locally compact groups there exists a Haar measure (invariant
   measure), which allows integration and defining the Fourier transform.

-------------------------------------------------------------------------------
 Definition: dual group
-------------------------------------------------------------------------------

 For a locally compact abelian group G its dual group:

   Ĝ = Hom(G, S¹) = {χ: G → S¹ | χ continuous homomorphism}

 Elements of Ĝ are called characters of the group G.

 Pontryagin's Theorem:
   For a locally compact abelian group G: Ĝ̂ ≅ G


 Examples of Pontryagin duality
+----------+----------------+------------------------------+
| GROUP G  | DUAL Ĝ         | CHARACTERS                   |
+----------+----------------+------------------------------+
|          |                |                              |
| ℤ        | S¹ ≅ ℝ/ℤ        | χₜ(n) = e^{2πint}, t ∈ [0,1) |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| S¹ ≅ ℝ/ℤ | ℤ               | χₙ(t) = e^{2πint}, n ∈ ℤ     |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℝ        | ℝ              | χ_ξ(x) = e^{2πiξx}, ξ ∈ ℝ    |
|          |                | (self-dual)                 |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℤ/nℤ      | ℤ/nℤ           | χₖ(m) = e^{2πikm/n}          |
|          |                | (self-dual)                 |
|          |                |                              |
+----------+----------------+------------------------------+
|          |                |                              |
| ℝⁿ       | ℝⁿ             | χ_ξ(x) = e^{2πi⟨ξ,x⟩}          |
|          |                |                              |
+----------+----------------+------------------------------+

-------------------------------------------------------------------------------
 Connection with the Fourier transform
-------------------------------------------------------------------------------

 Main idea: the Fourier transform is precisely the transition to the dual
 group. This is not an analogy, this is literally the same thing.

   • Time t lives in the group ℝ
   • Frequency ω lives in the dual group ℝ̂ ≅ ℝ
   • Fourier image f̂(ω) = "coordinates of the function in the basis of characters"

 Subtlety: The isomorphism ℝ̂ ≅ ℝ is not canonical — it depends on the choice of
 normalization (2π in the exponential). This is like V* ≅ V: true, but requires a choice.
 Different textbooks use e^{iωt}, e^{2πiξt} or e^{-iωt} — hence the
 confusion with coefficients 2π in Fourier formulas.

 When an engineer performs FFT (fast Fourier transform), they implicitly
 use Pontryagin duality for the group ℤ/nℤ.

 The Fourier transform is the decomposition of a function in characters:

   f̂(ξ) = ∫_G f(x) χ_ξ(x)⁻¹ dx

 Correspondence table:

   +-----------------+---------------------+-----------------------+
   | GROUP           | FOURIER             | APPLICATION           |
   +-----------------+---------------------+-----------------------+
   | ℝ               | Ordinary Fourier    | Signal processing     |
   | S¹              | Fourier series      | Periodic functions    |
   | ℤ               | DTFT                | Discrete signals      |
   | ℤ/nℤ            | DFT (FFT)           | Digital processing    |
   | Finite group    | Representation th.  | Chemistry, physics    |
   +-----------------+---------------------+-----------------------+


-------------------------------------------------------------------------------
Gelfand–Naimark Theorem
-------------------------------------------------------------------------------

 Space ↔ algebra of functions


 Theorem (Gelfand–Naimark):

   A compact Hausdorff space X is completely determined by
   the algebra of continuous functions C(X).

   X ↔ C(X)    (equivalence of categories)

 Corollary:
   One can study the space X by studying functions on it.
   This is the basis of noncommutative geometry.

 Generalization (noncommutative geometry):
   Noncommutative C*-algebras = "functions on noncommutative spaces"
   Quantum mechanics = noncommutative geometry of phase space


-------------------------------------------------------------------------------
Physical Meaning of Duality
-------------------------------------------------------------------------------

 Position ↔ Momentum

+--------------------+------------------------+-------------------------------+
|                    | POSITION q             | MOMENTUM p                    |
+--------------------+------------------------+-------------------------------+
| Meaning            | "Where?"               | "Where is it moving?"         |
+--------------------+------------------------+-------------------------------+
| Mathematically     | q ∈ Q (configuration)  | p ∈ T*_qQ (cotangent)         |
+--------------------+------------------------+-------------------------------+
| Quantum mechanics  | ψ(q) — wave function   | ψ̃(p) = F[ψ(q)] — Fourier      |
+--------------------+------------------------+-------------------------------+
| Uncertainty        |                    Δq · Δp ≥ ℏ/2                       |
+--------------------+------------------------+-------------------------------+

 Similarly: Time ↔ Energy (ΔE·Δt ≥ ℏ/2)


 Summary: two ways to look at space

   +-------------------------------------------------------------+
   |                                                             |
   | SPACE                             FUNCTIONS ON IT           |
   | (points, objects)                 (measurements, tests)     |
   |                                                             |
   | X            ◄==========►           C(X)                    |
   |                                                             |
   | • Points x ∈ X                   • Functions f: X → ℝ       |
   | • Subsets                        • Ideals                   |
   | • Maps X → Y                     • Homomorphisms C(Y) → C(X)|
   | (direction reversed)                                        |
   |                                                             |
   +-------------------------------------------------------------+

 Both descriptions are equivalent.
 The choice depends on the problem and convenience.

-------------------------------------------------------------------------------
 Applied Example: Duality in Thermodynamics
-------------------------------------------------------------------------------

 Thermodynamics is full of dual pairs — this is no coincidence.

   +-----------------+------------------+------------+
   | EXTENSIVE       | INTENSIVE        | RELATION   |
   | (additive)      | (measurer)       |            |
   +-----------------+------------------+------------+
   | Volume V        | Pressure p       | δW = −p dV |
   | Entropy S       | Temperature T    | δQ = T dS  |
   | Amount of sub n | Chem. potential μ| δG = μ dn  |
   | Charge q        | Potential φ      | δW = φ dq  |
   +-----------------+------------------+------------+

 Mathematical meaning:

   Extensive quantities = coordinates of state space
   Intensive quantities = functions on this space (covectors)

   Work/heat = pairing ⟨p, dV⟩, ⟨T, dS⟩
   This is exactly the action of a covector on a vector.

 Legendre Transform:

   Transition between descriptions: U(S,V) ↔ H(S,p) ↔ F(T,V) ↔ G(T,p)

   This is a change of basis between dual variables.

   • U(S,V) — internal energy (natural: S, V)
   • H(S,p) = U + pV — enthalpy (replaced V with p)
   • F(T,V) = U − TS — free energy (replaced S with T)
   • G(T,p) = U + pV − TS — Gibbs potential (replaced S→T, V→p)

 Practical meaning:

   • At p = const enthalpy H is convenient (pumps, compressors)
   • At T = const free energy F is convenient (isothermal processes)
   • At T, p = const Gibbs potential G is convenient (chemical reactions)


 Conclusion: Duality is not an abstraction, but a working tool.
 Thermodynamic potentials are a choice of convenient description
 for a specific problem (what is fixed: T or S? p or V?)

-------------------------------------------------------------------------------
Delta Function — Duality in Action
-------------------------------------------------------------------------------

 Problem: What is a "point charge" or an "instantaneous impulse"?


 Engineers constantly use the "delta function" δ(x):
   • Point charge: ρ(x) = q·δ(x − x₀)
   • Impulsive force: F(t) = P·δ(t − t₀)
   • Initial condition: u(x,0) = δ(x)

 Formally they write:
   δ(x) = { 0, x ≠ 0
          { ∞, x = 0     and     ∫δ(x)dx = 1

 But this is not a function. There is no function with value ∞ at a point and integral 1.


 Solution: δ is a functional (element of the dual space)


 Correct definition:

   δ: C∞₀(ℝ) → ℝ,    δ[φ] = φ(0)

 δ is a linear functional that takes a test function φ
 and returns its value at zero.

 The "integral" ∫δ(x)φ(x)dx is understood as δ[φ] = φ(0).

 Connection with duality:
   • Space of probe (test) functions:
     𝒟(ℝ) = C∞₀(ℝ) = {φ: smooth with compact support}
     (φ vanishes outside some bounded interval)
   • Dual space: 𝒟'(ℝ) = {generalized functions/distributions}
   • δ ∈ 𝒟'(ℝ) — element of the dual space.

   Another variant: Schwartz class 𝒮(ℝ) — rapidly decreasing functions.
   Then 𝒮'(ℝ) — tempered distributions (including δ).

 The derivative δ' is also a functional:
   δ'[φ] = −φ'(0)    (integration by parts)

-------------------------------------------------------------------------------
Practical properties
-------------------------------------------------------------------------------

 ∫ f(x)δ(x−a)dx = f(a)         "selects" the value of f at point a

 ∫ f(x)δ'(x−a)dx = −f'(a)       "selects" the derivative at point a

 Important: These formulas make sense only for smooth (test) functions f.
     Applying δ to an arbitrary function from L² is incorrect — such
     functions have no "value at a point" (only an equivalence class).

 δ(ax) = (1/|a|)δ(x)           scaling of the argument

 xδ(x) = 0                     x·0 = 0 everywhere, including x=0

 Fourier transform:
   F[δ(x)](ω) = 1               δ(x) ↔ const
   F[1](ω) = 2πδ(ω)             const ↔ δ(ω)

 Convolution:
   f * δ = f                    δ — neutral element of convolution
   f * δ' = f'                  differentiation through convolution


 Forbidden operations with δ


 In the theory of generalized functions (Schwartz distributions), it is not allowed:

   • δ(x)·δ(x) = δ²(x) — undefined.
   • δ(x)·|x|⁻¹ — undefined.
   • Any nonlinear operations with δ

 Why: The product of two distributions is generally undefined.
 Distributions are linear functionals, and the product
 δ(x)·δ(x) would require a "value of δ at a point", which does not exist.

 Where this is a problem:
   • Quantum field theory: "divergences" = attempts to compute δ²
   • Nonlinear equations with singular data
   • Squaring a signal (power of a signal with a δ-pulse)

 What is allowed: Linear operations (addition, differentiation, convolution with
 a smooth function) — all of this is well-defined.

-------------------------------------------------------------------------------
 Applications in engineering
-------------------------------------------------------------------------------

 Impulse response:
   Linear system L with input u(t) and output y(t) = L[u]
   Impulse response: h(t) = L[δ(t)]
   Then: y(t) = (h * u)(t) = ∫ h(τ)u(t−τ)dτ

 Transfer function:
   H(s) = L[h(t)]  (Laplace transform of the impulse response)
   If H(s) = 1/(s+a), then h(t) = e^{−at}

 Green's function:
   The solution of the equation LG(x,ξ) = δ(x−ξ) is called the Green's function
   Solution of Lu = f: u(x) = ∫ G(x,ξ)f(ξ)dξ

We have become acquainted with duality: V and V*. Now we can construct objects
that "eat" several vectors and covectors simultaneously. These are tensors —
multilinear functions on products of V and V*.

Tensors — the language of physics: stresses, strains, electromagnetic field.

===============================================================================
Tensors — multilinear objects on spaces
===============================================================================

A tensor is the culmination of the theme "object vs observer".

A tensor is an object that is indifferent to the choice of observer.

A vector exists independently of a basis. But to write it down with numbers, one can only
by choosing a basis — that is, by becoming an "observer". Different observers will write one
vector with different numbers. The transformation law of components is the rule for conversion
between the languages of different observers.

A tensor is a generalization: an object that "eats" several vectors and covectors
and produces a number. This number is an invariant, the same for all observers.
The components of a tensor (numbers in a table) change when the basis changes, but according to a strict
law that guarantees that the result of the calculation will remain the same.

This is not abstract mathematics — this is the language of physics. Stress in a material,
the metric of spacetime, the electromagnetic field — all of these are tensors. They
describe a reality that does not depend on how we decided to write it down.

The main mistake: confusing a tensor (geometric object) with its components
(numbers in a specific basis). A 3×3 matrix can be a record of completely
different tensors — or not be a tensor at all.

The key principle: a tensor does not change when coordinates change — our
description (components) changes to compensate for the change of ruler.

 Tensors as a view of space


 Tensors describe how properties of space change from point to point
 and from direction to direction.

   • Scalar (tensor of rank 0): temperature T(x) — one number at each point
   • Vector (rank 1): velocity v(x) — direction at each point
   • Tensor (rank 2): stresses σᵢⱼ(x) — depend on point and on plane

 Tensors — the language of describing anisotropy: when space is "different" in different
 directions (thermal conductivity of a crystal, elasticity of a composite).


Now that we understand duality, we can define tensors.

-------------------------------------------------------------------------------
Why tensors are needed — motivation
-------------------------------------------------------------------------------

 Why would anyone need to change coordinate systems? — motivation


 Before talking about tensors and transformations, let us answer the main
 question: Why would anyone need to change coordinates?

-------------------------------------------------------------------------------
Reason 1: different observers
-------------------------------------------------------------------------------

   An observer stands on a platform. A train passes by. A passenger sits in the train.

   • For the observer: the passenger moves at a speed of 100 km/h
   • For the passenger: he is at rest, and the observer moves at a speed of −100

   Who is right? Both. Velocity is a vector, and its components depend on
   the reference frame. But the passenger himself is the same physical object.

   Problem: The laws of physics must be the same for all observers.
            F = ma must work both on the platform and in the train.

-------------------------------------------------------------------------------
 Reason 2: convenience of solving a problem
-------------------------------------------------------------------------------

   Problem: find the area of the ellipse x²/a² + y²/b² = 1

   In Cartesian coordinates — a complicated integral.
   Make a substitution: u = x/a, v = y/b
   The ellipse turns into a circle u² + v² = 1, area = π.
   Area of the ellipse = πab (taking into account the stretching of coordinates).

   Other examples:
   • Problem with rotation → polar coordinates
   • Problem with a sphere → spherical coordinates
   • Oscillations → normal modes (eigenvectors)

   The right choice of coordinates turns a difficult problem into a simple one.

-------------------------------------------------------------------------------
 Reason 3: measurements in different units
-------------------------------------------------------------------------------

   American engineer: pipe of length 10 feet, diameter 6 inches
   Russian engineer: the same pipe — 3.048 m, diameter 152.4 mm

   The pipe is the same. The numbers are different.

   If the formula for calculating pressure losses gives different answers in feet and
   in meters — the formula is incorrect. Physics doesn't know about feet and meters.

-------------------------------------------------------------------------------
 Reason 4: curvilinear coordinates on surfaces
-------------------------------------------------------------------------------

   On the surface of the Earth there are no "natural" Cartesian coordinates.
   We use latitude and longitude — but they behave strangely:
   • At the pole longitude is undefined
   • "A meter to the east" has different length at the equator and in Moscow

   At different points the basis vectors ∂/∂φ and ∂/∂θ have different length.
   This forces us to think about coordinate transformations.

-------------------------------------------------------------------------------
 Conclusion: what a "correct" mathematical object must be able to do
-------------------------------------------------------------------------------

 A physical quantity (velocity, force, stress, metric) must:

   1. exist independently of the choice of coordinates
   2. have components that change when coordinates change
   3. change according to a definite law, so that the quantity remains the same

 An object satisfying these requirements is called a tensor.

 The transition matrix A is simply a record of how the new basis
 vectors are expressed in terms of the old ones. It is forced to be exactly this way,
 because the basis vectors are concrete geometric objects.


 Concrete example: thermal conductivity in a layered material


 There is a layered thermal insulation: the layers go horizontally.

   • Along the layers thermal conductivity λ∥ = 0.5 W/(m·K)
   • Across the layers thermal conductivity λ⊥ = 0.05 W/(m·K)

 If the coordinate axes coincide with the layers:

       λ = ⎛ 0.5   0  ⎞    Diagonal matrix — simple.
           ⎝  0   0.05⎠

 Now rotate the coordinates by 45°. The layers remained the same.
 But the thermal conductivity matrix will change:

       λ' = R⁻¹ λ R =  ⎛ 0.275  0.225 ⎞    Off-diagonal elements
                       ⎝ 0.225  0.275 ⎠    appeared.

 What does this mean physically?

   In rotated coordinates: if the temperature gradient is directed
   along the x' axis, then the heat flux will not be along x', but at an angle.
   Because the material "wants" to conduct heat along the layers.

   λ' ≠ λ  — the components are different
   But the physical material is the same
   λ and λ' describe one object in different coordinates

 The transformation law λ' = R⁻¹λR is not an arbitrary choice.
 It is forced to be this way, so that the heat flux q = −λ∇T
 is the same physical vector in any coordinates.

-------------------------------------------------------------------------------
 Why tensors are needed
-------------------------------------------------------------------------------

 Problem 1: Physical quantities must not depend on coordinates.
   • Temperature is one, no matter how you rotate the axes
   • Velocity is one vector, but the components change
   • Stress in a material — how to describe?

 Problem 2: Objects "more complicated" than vectors are needed
   • A scalar takes a point → gives a number
   • A vector. What does it take? What does it give?
   • A matrix acts on a vector → gives a vector
   • A metric takes two vectors → gives a number (length/angle)

 Solution: A tensor = a multilinear map with a definite law
           of coordinate transformation


-------------------------------------------------------------------------------
Multilinearity — the key idea
-------------------------------------------------------------------------------

 Definition: multilinear mapping


 A mapping T: V₁ × V₂ × ... × Vₖ → W is called multilinear
 (or k-linear), if it is linear in each argument separately:

   T(v₁, ..., αuᵢ + βwᵢ, ..., vₖ) = αT(v₁,...,uᵢ,...,vₖ) + βT(v₁,...,wᵢ,...,vₖ)

 for all i = 1, ..., k.

-------------------------------------------------------------------------------
 Explanation: what does "linear in each argument" mean
-------------------------------------------------------------------------------

 Imagine a function f(x, y) of two variables.

 "Linear in x" means:
   If we fix y, then f behaves as a linear function of x:
   f(αx₁ + βx₂, y) = α·f(x₁, y) + β·f(x₂, y)

 "Linear in y" means:
   If we fix x, then f behaves as a linear function of y:
   f(x, αy₁ + βy₂) = α·f(x, y₁) + β·f(x, y₂)

 "Bilinear" = linear in x and linear in y (simultaneously).

 Concrete numerical example: Scalar product in ℝ²


 Scalar product: ⟨u, v⟩ = u₁v₁ + u₂v₂

 Take concrete vectors:
   u = (1, 2),  v = (3, 0),  w = (0, 1)

 Checking linearity in the first argument:

   Compute ⟨2u + 3w, v⟩ in two ways:

   Method 1 (direct):
     2u + 3w = 2·(1,2) + 3·(0,1) = (2,4) + (0,3) = (2, 7)
     ⟨(2,7), (3,0)⟩ = 2·3 + 7·0 = 6

   Method 2 (via linearity):
     2·⟨u, v⟩ + 3·⟨w, v⟩ = 2·⟨(1,2),(3,0)⟩ + 3·⟨(0,1),(3,0)⟩
                         = 2·(1·3 + 2·0) + 3·(0·3 + 1·0)
                         = 2·3 + 3·0 = 6  ✓

   The results coincided — linearity in the first argument works.

 Why this is important:
   Multilinearity allows us to "decompose" complex expressions into parts.
   Instead of computing T(complex_combination) we can expand into
   simple summands and add the results.

 Counterexample — the norm is not linear:
   ‖2u‖ = ‖(2,4)‖ = √(4+16) = √20 ≈ 4.47
   2·‖u‖ = 2·‖(1,2)‖ = 2·√5 ≈ 4.47  ✓ (coincided here)

   But: ‖(−1)·u‖ = ‖(−1,−2)‖ = √5 ≈ 2.24
       (−1)·‖u‖ = −√5 ≈ −2.24  ✗ (did not coincide)

   The norm always gives a positive number, whereas (−1)·‖u‖ is negative.
   Therefore the norm is not linear, and consequently is not a tensor.


 Examples of multilinear mappings
+-------------------+-----------------------+---------------------------+
| MAPPING           | TYPE                  | MULTILINEARITY CHECK      |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Scalar product    | V × V → ℝ             | ⟨αu, v⟩ = α⟨u,v⟩ ✓           |
| ⟨u, v⟩             | bilinear (k=2)        | ⟨u, αv⟩ = α⟨u,v⟩ ✓           |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Determinant       | V × V × ... × V → ℝ   | det(..., αv, ...) =       |
| det(v₁,...,vₙ)      | n-linear              | = α·det(..., v, ...) ✓    |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Cross product     | V × V → V             | (αu) × v = α(u × v) ✓     |
| u × v             | bilinear              | u × (αv) = α(u × v) ✓     |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Metric            | TₚM × TₚM → ℝ         | g(αu, v) = αg(u,v) ✓      |
| g(u, v)           | bilinear              | g(u, αv) = αg(u,v) ✓      |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+
|                   |                       |                           |
| Riemann curvature | TₚM × TₚM × TₚM → TₚM  | R(αX,Y)Z = αR(X,Y)Z ✓     |
| R(X,Y)Z           | trilinear             | (linear in all three)     |
|                   |                       |                           |
+-------------------+-----------------------+---------------------------+

 Counterexample: what is not multilinear


 The norm ‖v‖ = √⟨v,v⟩ is not linear.

   ‖αv‖ = |α|·‖v‖ ≠ α·‖v‖  (for α < 0)

 The norm is not a tensor. It is a function, but not a linear one.


-------------------------------------------------------------------------------
Formal definition of a tensor
-------------------------------------------------------------------------------

 Definition: tensor of type (p, q)


 Let V be a vector space over ℝ, V* its dual.

 A tensor of type (p, q) on V is a multilinear mapping:

   T: V* × ... × V* × V × ... × V → ℝ
      +----p copies--+ +---q copies--+

 p is called the contravariant valence (upper indices)
 q is called the covariant valence (lower indices)

 Total valence (rank) of the tensor = p + q

 Hierarchy of tensors
+----------------+--------+-----------------------------------------------------+
| TYPE           | (p,q)  | WHAT IT IS / HOW MANY COMPONENTS                    |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Scalar         | (0,0)  | T: {} → ℝ (just a number)                           |
|                |        | 1 component: T                                      |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Vector         | (1,0)  | T: V* → ℝ (linear function on covectors)            |
|                |        | n components: Tⁱ                                    |
|                |        | Identified with an element of V via V ≅ V**         |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Covector       | (0,1)  | T: V → ℝ (linear function on vectors)               |
| (1-form)       |        | n components: Tᵢ                                    |
|                |        | This is an element of V*                            |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Bilinear       | (0,2)  | T: V × V → ℝ                                        |
| form           |        | n² components: Tᵢⱼ                                  |
|                |        | Example: metric gᵢⱼ, scalar product                 |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Linear         | (1,1)  | T: V* × V → ℝ  or  T: V → V                         |
| operator       |        | n² components: Tⁱⱼ                                  |
|                |        | Example: transformation matrix                      |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Tensor (2,0)   | (2,0)  | T: V* × V* → ℝ                                      |
|                |        | n² components: Tⁱʲ                                  |
|                |        | Example: inverse metric gⁱʲ                         |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+
|                |        |                                                     |
| Riemann tensor | (1,3)  | R: V* × V × V × V → ℝ                               |
|                |        | n⁴ components: Rⁱⱼₖₗ                                 |
|                |        | (with symmetries: 20 independent in 4D)             |
|                |        |                                                     |
+----------------+--------+-----------------------------------------------------+

-------------------------------------------------------------------------------
Tensor components in a basis
-------------------------------------------------------------------------------

 Let {e₁, ..., eₙ} — basis of V, {e¹, ..., eⁿ} — dual basis of V*.

 Components of tensor T of type (p,q):

   T^{i₁...iₚ}_{j₁...jq} = T(e^{i₁}, ..., e^{iₚ}, e_{j₁}, ..., e_{jq})

 The tensor itself is reconstructed:

   T = T^{i₁...iₚ}_{j₁...jq} · e_{i₁} ⊗ ... ⊗ e_{iₚ} ⊗ e^{j₁} ⊗ ... ⊗ e^{jq}

 (summation over repeated indices — Einstein summation convention)

-------------------------------------------------------------------------------
 Key distinction: matrix-table vs matrix-tensor
-------------------------------------------------------------------------------

 It is often said "a tensor is a multidimensional table of numbers". This is incorrect.
 A table is only a representation of a tensor in a specific basis.

 Matrix as table:
   Just 4 numbers in a definite order. Do not change under change of basis.
   Example: data in Excel, image pixels.

 Matrix as tensor:
   Numbers + type + transformation rule.
   Under change of basis the numbers change according to a definite law.
   Example: metric, linear operator, bilinear form.


 Example: one matrix — three different tensors


 Take the identity matrix 2×2:

       ⎛ 1  0 ⎞
   M = ⎜      ⎟
       ⎝ 0  1 ⎠

 This matrix can represent three different tensors:

 +---------------------+---------+--------------------------------------+
 | Tensor type         | Indices | What it is                           |
 +---------------------+---------+--------------------------------------+
 | (1,1) — operator    | Mⁱⱼ     | Identity transformation v ↦ v        |
 | (0,2) — bilin.form  | Mᵢⱼ     | Standard scalar product ⟨u,v⟩        |
 | (2,0) — bivector    | Mⁱʲ     | Inverse metric (raises indices)      |
 +---------------------+---------+--------------------------------------+

 Now apply a change of basis: stretch the x axis by a factor of 2.

 Transition matrix: A = ⎛ 2  0 ⎞,  A⁻¹ = ⎛ 1/2  0 ⎞
                        ⎝ 0  1 ⎠         ⎝  0   1 ⎠

 Transformation results:

 +----------------+-------------------+------------------+
 | Type           | Formula           | Result           |
 +----------------+-------------------+------------------+
 | (1,1) operator | M' = A⁻¹ M A      | ⎛ 1  0 ⎞          |
 |                |                   | ⎝ 0  1 ⎠          |
 |                |                   | (unchanged)      |
 +----------------+-------------------+------------------+
 | (0,2) form     | M' = Aᵀ M A       | ⎛ 4  0 ⎞          |
 |                |                   | ⎝ 0  1 ⎠          |
 |                |                   | (grew in x)      |
 +----------------+-------------------+------------------+
 | (2,0) bivector | M' = (A⁻¹)M(A⁻¹)ᵀ | ⎛ 1/4  0 ⎞        |
 |                |                   | ⎝  0   1 ⎠        |
 |                |                   | (shrank in x)    |
 +----------------+-------------------+------------------+

 Conclusion:
   One and the same table of numbers ⎛1 0⎞ turned into three different matrices.
                                     ⎝0 1⎠
   A tensor is not numbers, but numbers + transformation rule.


 Numerical example: how to compute the transformation


 Let's verify for type (0,2) — bilinear form (metric):

 M' = Aᵀ M A

     ⎛ 2  0 ⎞ᵀ   ⎛ 1  0 ⎞   ⎛ 2  0 ⎞
   = ⎜      ⎟  · ⎜      ⎟ · ⎜      ⎟
     ⎝ 0  1 ⎠    ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

     ⎛ 2  0 ⎞   ⎛ 1  0 ⎞   ⎛ 2  0 ⎞
   = ⎜      ⎟ · ⎜      ⎟ · ⎜      ⎟
     ⎝ 0  1 ⎠   ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

     ⎛ 2  0 ⎞   ⎛ 2  0 ⎞   ⎛ 4  0 ⎞
   = ⎜      ⎟ · ⎜      ⎟ = ⎜      ⎟  ✓
     ⎝ 0  1 ⎠   ⎝ 0  1 ⎠   ⎝ 0  1 ⎠

 Physical meaning:
   The basis vector e'₁ = 2e₁ became twice as long.
   The coordinate x' = x/2 (in the new units fewer steps are needed).
   Length: s² = g'₁₁(x')² = 4·(x/2)² = x² = g₁₁x² ✓

   The metric increased by a factor of 4 to compensate for the decrease in coordinates.
   This is like price: if a unit of goods became twice as large, the price per unit
   increases fourfold (so that the price per gram remains the same).


 Criterion: how to understand whether it's a tensor or just a table?


 Ask the question: "Should these numbers change under change of coordinate system
                   to describe the same physical/geometric
                   object?"

 +-------------------------------+---------------------------------+
 | JUST A TABLE                  | TENSOR                          |
 +-------------------------------+---------------------------------+
 | Image pixels                  | Space metric gᵢⱼ                |
 | Data in database              | Stress tensor in material       |
 | Equation coefficients         | Moment of inertia tensor        |
 | (in fixed coordinates)        | Electromagnetic tensor Fᵢⱼ      |
 +-------------------------------+---------------------------------+
 | Change of coordinates:        | Change of coordinates:          |
 | numbers stay the same         | numbers change according to     |
 |                               | a definite law                  |
 +-------------------------------+---------------------------------+

 Conclusion:
   Tensor = abstract object, independent of coordinates.
   Tensor components = numbers that depend on coordinates in such a way
   that the tensor itself remains the same.


-------------------------------------------------------------------------------
Tensor Product
-------------------------------------------------------------------------------

 Universal Property (canonical definition)


 The tensor product V ⊗ W is a space with a bilinear map
 ⊗: V × W → V ⊗ W, through which any bilinear map factors:

     V × W --⊗--→ V ⊗ W
        ╲          ↓ ∃! linear
      B  ╲        ↙
     (bilin) ╲  ↙
              U

 For any bilinear B: V × W → U there exists a unique linear
 map B̃: V ⊗ W → U such that B = B̃ ∘ ⊗.

 Meaning: V ⊗ W is the "most general" space into which one can map bilinearly.


 Construction (for finite-dimensional spaces)


 In the finite-dimensional case V ⊗ W can be identified with the space
 of bilinear forms on V* × W*:

 For v ∈ V and w ∈ W we define v ⊗ w ∈ V ⊗ W:

   (v ⊗ w)(φ, ψ) = φ(v) · ψ(w)   for φ ∈ V*, ψ ∈ W*

 Properties:
   • (αv) ⊗ w = v ⊗ (αw) = α(v ⊗ w)
   • (v₁ + v₂) ⊗ w = v₁ ⊗ w + v₂ ⊗ w
   • v ⊗ (w₁ + w₂) = v ⊗ w₁ + v ⊗ w₂
   • dim(V ⊗ W) = dim(V) · dim(W)

 Basis:
   If {eᵢ} is a basis of V, {fⱼ} is a basis of W, then {eᵢ ⊗ fⱼ} is a basis of V ⊗ W.

-------------------------------------------------------------------------------
 Tensor Space as Tensor Product
-------------------------------------------------------------------------------

 Tensor space of type (p,q) on V:

   T^p_q(V) = V ⊗ ... ⊗ V ⊗ V* ⊗ ... ⊗ V*
              +---p copies---+ +----q copies----+

 Examples:
   • T⁰₀(V) = ℝ                     (scalars)
   • T¹₀(V) = V                     (vectors)
   • T⁰₁(V) = V*                    (covectors)
   • T¹₁(V) = V ⊗ V* ≅ End(V)       (linear operators)
   • T⁰₂(V) = V* ⊗ V*              (bilinear forms)


 Example: tensor product in components


 Let v = (v¹, v², v³), w = (w¹, w²) be vectors in ℝ³ and ℝ².

 Then v ⊗ w is a 3×2 matrix:

   (v ⊗ w)ⁱʲ = vⁱ wʲ

       ⎛ v¹w¹  v¹w² ⎞
   =   ⎜ v²w¹  v²w² ⎟
       ⎝ v³w¹  v³w² ⎠

 This is a rank 1 matrix (all rows are proportional).
 Not every matrix is a tensor product of two vectors.


-------------------------------------------------------------------------------
Coordinate Transformation
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Transition Matrix A — what is it
-------------------------------------------------------------------------------

 The transition matrix A describes how new basis vectors are expressed
 in terms of old ones:

   e'₁ = A¹₁e₁ + A²₁e₂ + ...
   e'₂ = A¹₂e₁ + A²₂e₂ + ...
   ...

 Or compactly: e'ⱼ = Aⁱⱼ eᵢ  (j-th new = linear combination of old)

 Example: Stretching the x-axis by a factor of 2

   Old basis: e₁ = (1,0), e₂ = (0,1)
   New basis:  e'₁ = (2,0) = 2e₁, e'₂ = (0,1) = e₂

   Transition matrix: A = ⎛ 2  0 ⎞
                          ⎝ 0  1 ⎠

   Columns of A are the coordinates of new basis vectors in the old basis.

 Physical meaning:
   • A describes how the "units of measurement" changed
   • A = rotation → rotated coordinate axes
   • A = scaling → enlarged/reduced the scale
   • This is a passive transformation: objects are the same, only description changes

 Important:
   A⁻¹ — inverse matrix — transforms from new coordinates to old
   det(A) ≠ 0 — bases must be non-degenerate

 Attention: convention for transition matrix

   In this atlas A is the basis transition matrix: e' = Ae (new through old).

   In physics literature (Landau–Lifshitz, MTW) the coordinate
   transition matrix is often used: x' = Λx. Then the basis transforms as e' = eΛ⁻¹.

   These matrices are inverse to each other: A = Λ⁻¹.

   Don't confuse them. The formula g' = AᵀgA (our convention) becomes
   g' = (Λ⁻¹)ᵀgΛ⁻¹ in the physics convention.

-------------------------------------------------------------------------------
 Tensor Transformation Law
-------------------------------------------------------------------------------

 Under basis change e'ᵢ = Aⱼᵢ eⱼ, tensor components transform:

 Vector (contravariant, upper index):
   v'ⁱ = (A⁻¹)ⁱⱼ vʲ    — transforms oppositely to basis

 Covector (covariant, lower index):
   ω'ᵢ = Aʲᵢ ωⱼ        — transforms like basis

 Tensor of type (p,q):
   T'^{i₁...iₚ}_{j₁...jq} = (A⁻¹)^{i₁}_{k₁}...(A⁻¹)^{iₚ}_{kₚ} ·
                            · A^{l₁}_{j₁}.A^{lq}_{jq} ·
                            · T^{k₁...kₚ}_{l₁...lq}

 Key point:
   Upper indices transform through A⁻¹ (contravariantly)
   Lower indices transform through A (covariantly)

-------------------------------------------------------------------------------
 Why "contra" and "co" — visual comparison
-------------------------------------------------------------------------------

 Situation: doubled the length of basis vector (e' = 2e)
           New "unit of measurement" = 2 old ones

+-----------------------+-------------------------+---------------------------+
|                       | VECTOR vⁱ               | COVECTOR ωᵢ               |
|                       | (contravariant)         | (covariant)               |
+-----------------------+-------------------------+---------------------------+
| Geom. meaning         | "Where to move"         | "Price per unit"          |
|                       | (arrow)                 | (differential df)         |
+-----------------------+-------------------------+---------------------------+
| Example               | v = 3e₁ (displacement)  | ω = 10ε¹ (price)          |
+-----------------------+-------------------------+---------------------------+
| In old basis          | v¹ = 3                  | ω₁ = 10                   |
+-----------------------+-------------------------+---------------------------+
| In new basis          | v'¹ = 1.5               | ω'₁ = 20                  |
| (e' = 2e)             | (components ÷2)         | (components ×2)           |
+-----------------------+-------------------------+---------------------------+
| Direction of          | AGAINST basis           | TOGETHER with basis       |
| transformation        | (basis ×2 → comp. ÷2)   | (basis ×2 → comp. ×2)     |
+-----------------------+-------------------------+---------------------------+
| Why so                | Vector v is the same,   | Covector "price per unit" |
|                       | just measured in other  | Unit became larger →      |
|                       | units                   | price for it also larger  |
+-----------------------+-------------------------+---------------------------+
| Transformation        | v'ⁱ = (A⁻¹)ⁱⱼ vʲ       | ω'ᵢ = Aʲᵢ ωⱼ             |
| formula               |                         |                           |
+-----------------------+-------------------------+---------------------------+
| Index                 | UPPER                   | LOWER                     |
+-----------------------+-------------------------+---------------------------+

 Invariant check:
   Old basis: v¹ω₁ = 3 × 10 = 30
   New basis:  v'¹ω'₁ = 1.5 × 20 = 30  ✓

 vⁱωᵢ is an invariant (doesn't depend on basis, because contra × co)


 Examples of contraction (invariants)
+----------------+----------------------------------------+
| CONTRACTION    | MEANING                                |
+----------------+----------------------------------------+
| vⁱvᵢ = gᵢⱼvⁱvʲ | Square of vector length ‖v‖²           |
+----------------+----------------------------------------+
| vⁱωᵢ           | Action of covector on vector (number)  |
+----------------+----------------------------------------+
| Tⁱᵢ            | Trace of matrix Tr(T)                  |
+----------------+----------------------------------------+
| Rⁱⱼᵢⱼ = R      | Scalar curvature (from Riemann tensor) |
+----------------+----------------------------------------+
| FᵢⱼFⁱʲ         | Electromagnetic field invariant        |
+----------------+----------------------------------------+

-------------------------------------------------------------------------------
Operations on Tensors
-------------------------------------------------------------------------------

 Table of Operations
+-------------------+---------------------+------------------------------+
| OPERATION         | ACTION ON TYPES     | EXAMPLE                      |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Addition          | (p,q) + (p,q) →     | (Sⁱⱼ + Tⁱⱼ)                  |
|                   | → (p,q)             | Only same types.             |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Tensor            | (p₁,q₁) ⊗ (p₂,q₂) → | (vⁱ)(wʲ) = vⁱwʲ              |
| product           | → (p₁+p₂, q₁+q₂)    | Rank adds up                 |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Contraction       | (p,q) → (p−1,q−1)   | Tⁱⱼₖ → Tⁱⱼᵢ = Sⱼ             |
| (trace)           | Rank decreases      | Sum over repeated index      |
|                   | by 2                |                              |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Raising           | gⁱʲTⱼₖ = Tⁱₖ        | Lower → upper                |
| index             | (0,2) ⊗ (1,1) →     | Using inverse metric         |
|                   | → contraction → (1,1)|                              |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Lowering          | gᵢⱼTʲ = Tᵢ          | Upper → lower                |
| index             |                     | Using metric                 |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Symmetrization    | T₍ᵢⱼ₎ = ½(Tᵢⱼ+Tⱼᵢ)  | Symmetric part               |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+
|                   |                     |                              |
| Antisymmetrization| T[ᵢⱼ] = ½(Tᵢⱼ−Tⱼᵢ)  | Antisymmetric part           |
|                   |                     | → differential forms.        |
|                   |                     |                              |
+-------------------+---------------------+------------------------------+

-------------------------------------------------------------------------------
Tensors in Physics
-------------------------------------------------------------------------------

 Main Physical Tensors
+-------------------+-------+----------------------------------------------+
| TENSOR            | TYPE  | WHAT IT DESCRIBES                            |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Metric gᵢⱼ        | (0,2) | How to measure distances                     |
|                   |       | ds² = gᵢⱼ dxⁱdxʲ                             |
|                   |       | Euclidean: gᵢⱼ = δᵢⱼ                         |
|                   |       | Minkowski: g = diag(−1,1,1,1)                |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Riemann tensor    | (1,3) | Curvature of space                           |
| Rⁱⱼₖₗ              |       | Measures rotation of vector around a contour |
|                   |       | R = 0 ⟺ space is flat                       |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Ricci tensor      | (0,2) | "Trace" of Riemann tensor                    |
| Rᵢⱼ = Rᵏᵢₖⱼ       |       | Enters Einstein's equations                  |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Energy-momentum   | (0,2) | Distribution of matter                       |
| tensor Tᵢⱼ        |       | T₀₀ = energy density                         |
|                   |       | T₀ᵢ = energy flux = momentum density         |
|                   |       | Tᵢⱼ = pressure/stress                        |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Electromagnetic   | (0,2) | E and B fields as one object                 |
| tensor Fᵢⱼ        |       | Antisymmetric: Fᵢⱼ = −Fⱼᵢ                    |
|                   |       | → differential 2-form.                       |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Inertia tensor    | (0,2) | How a body resists rotation                  |
| Iᵢⱼ               |       | L = Iω (angular momentum = inertia × ang.vel)|
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+
|                   |       |                                              |
| Stress tensor     | (0,2) | Forces inside material                       |
| σᵢⱼ               |       | σᵢⱼ = force in direction j on surface ⊥ i    |
|                   |       |                                              |
+-------------------+-------+----------------------------------------------+

 Einstein's Equations — Tensors in Action


                    Rᵢⱼ − ½gᵢⱼR + Λgᵢⱼ = 8πG · Tᵢⱼ
                    \________________/         \____/
                         geometry              matter
                    (curvature of space)

 Left side:
   • Rᵢⱼ — Ricci tensor (curvature)
   • R = gⁱʲRᵢⱼ — scalar curvature
   • Λ — cosmological constant
   • gᵢⱼ — metric of spacetime

 Right side:
   • Tᵢⱼ — distribution of energy and momentum
   • G — gravitational constant

 Meaning: Matter curves space. Curvature determines motion.


-------------------------------------------------------------------------------
Connection to Other Sections
-------------------------------------------------------------------------------

 Section Connection Graph


   (Lin. Algebra)
        |
        | vector spaces, V*
        ▼
   (Products)
        |
        | scalar ⊗ tensor
        ▼
   (Duality)
        |
        | V* — dual space
        ▼
   ▶ (Tensors) ◀
        |
        +--------------► (Diff. Forms) — antisymmetric tensors
        |
        +--------------► (Manifolds) — tensor fields on M
        |
        +--------------► Applications — GR, electromagnetism


 Summary: What is a Tensor


 Three equivalent definitions:

 1. Algebraic:
    A tensor of type (p,q) is a multilinear map
    T: V* × ... × V* × V × ... × V → ℝ

 2. Via basis:
    A collection of numbers T^{i₁...iₚ}_{j₁...jq} with a specific law
    of transformation under change of basis

 3. Geometric:
    A tensor is an object that exists independently of coordinates,
    but can be expressed in components in any coordinate system

 All three definitions are equivalent.

 Important to remember:
   • Tensor ≠ table of numbers. Table is merely a representation in a specific basis
   • The same matrix can be a tensor of different types
   • The type of tensor determines how the numbers change under change of basis
   • Covector (element of V*) is a linear function on vectors, not a vector

-------------------------------------------------------------------------------
 Bonus: π-theorem and Similarity Criteria
-------------------------------------------------------------------------------

 This is not directly about tensors, but about dimensions — the foundation of physics.

 Problem: Pressure loss in a pipe ΔP depends on ρ, v, D, L, μ, ε.
 That's 7 quantities. How to find the dependence?

 Buckingham's Π-theorem:
 +----------------------------------------------------------------------+
 | If n quantities are related by a physical law, and these quantities  |
 | are expressed through k basic dimensions (M, L, T, ...), then the    |
 | law can be written as a relation of (n − k) dimensionless            |
 | combinations.                                                        |
 +----------------------------------------------------------------------+

 Example: Losses in a pipe
   n = 7 (ΔP, ρ, v, D, L, μ, ε), k = 3 (M, L, T) → 4 dimensionless numbers

   Π₁ = ΔP/(ρv²)    — pressure coefficient (Euler)
   Π₂ = ρvD/μ       — Reynolds number Re
   Π₃ = L/D         — relative length
   Π₄ = ε/D         — relative roughness

   Law: Π₁ = f(Π₂, Π₃, Π₄), or:  ΔP/(ρv²) = f(Re, L/D, ε/D)

   This gives the Darcy–Weisbach formula: ΔP = λ(Re, ε/D)·(L/D)·(ρv²/2)

 Main dimensionless numbers of thermophysics:
 +------------+------------------+--------------------------------------------+
 | NUMBER     | FORMULA          | PHYSICAL MEANING                           |
 +------------+------------------+--------------------------------------------+
 | Reynolds   | Re = ρvL/μ       | Inertia / Viscosity                        |
 |            |                  | Re < 2300: laminar, Re > 4000: turb. |
 +------------+------------------+--------------------------------------------+
 | Prandtl    | Pr = ν/a = μcₚ/λ | Viscous diffusion / Thermal                |
 |            |                  | Pr ≈ 0.7 gases, Pr ≈ 7 water               |
 +------------+------------------+--------------------------------------------+
 | Nusselt    | Nu = αL/λ        | Convection / Thermal conductivity          |
 |            |                  | Nu = 1: pure conduction                    |
 +------------+------------------+--------------------------------------------+
 | Grashof    | Gr = gβΔTL³/ν²   | Buoyancy / Viscosity                       |
 |            |                  | Free convection                            |
 +------------+------------------+--------------------------------------------+
 | Mach       | Ma = v/c         | Velocity / Speed of sound                  |
 |            |                  | Ma > 1: supersonic, shock waves            |
 +------------+------------------+--------------------------------------------+

 Why this is needed:
   • Modeling: if Re_model = Re_original → flows are similar
   • Correlations: Nu = f(Re, Pr) — universal heat transfer formulas
   • Estimates: Re ~ 10⁶ → definitely turbulence, calculate by turb. formulas


 Deep connection: π-theorem as a consequence of the Lie group of scalings


 Why does the Π-theorem work? Behind it lies symmetry — a Lie group.

 Scaling group:

   G = (ℝ⁺, ×) — positive real numbers with multiplication
   This is a Lie group: continuous, smooth, one-dimensional

   Action on dimensional quantities:
     [L] → λ[L]         (length scales by a factor of λ)
     [T] → μ[T]         (time scales by a factor of μ)
     [M] → ν[M]         (mass scales by a factor of ν)

 Key idea:
 +----------------------------------------------------------------------+
 | A physical law must be invariant with respect to the choice of units.|
 | This means: the law is invariant with respect to the scaling group G.|
 |                                                                      |
 | Dimensionless numbers (Re, Pr, Nu) are invariants of the action of G.|
 +----------------------------------------------------------------------+

 Lie algebra and dimension:

   Generator of scalings: D = x·∂/∂x + y·∂/∂y + z·∂/∂z + ...

   A quantity f has dimension [L]^a[T]^b[M]^c if:
     D·f = (a + b + c)·f     (eigenfunction of operator D)

   Dimensionless quantity: D·Π = 0 (invariant)

 Example: Why is Re = ρvL/μ dimensionless?

   [ρ] = M/L³,  [v] = L/T,  [L] = L,  [μ] = M/(L·T)

   [ρvL/μ] = (M/L³)·(L/T)·L / (M/(L·T)) = (M·L·L)/(L³·T) × (L·T)/M = 1

   Re is invariant with respect to λ → λL, μ → μT, ν → νM

 Generalization — Noether's theorem:

   Symmetry                 ↔  Conservation law
   Scaling                  ↔  Dimensional analysis, Π-theorem
   Time translation         ↔  Energy conservation
   Spatial translation      ↔  Momentum conservation
   Rotation                 ↔  Angular momentum conservation

 All these symmetries form Lie groups, and their Lie algebras give generators.


Tensors live on vector spaces. But real spaces are curved.
Earth's surface, spacetime, configuration space of a robot.
How to define tensors on curved space?

For this we need manifolds — spaces that locally look like ℝⁿ,
but globally can have a complex shape. At each point there is a tangent
space — and that's where tensors live.

===============================================================================
Manifolds — spaces that can be mapped
===============================================================================

A manifold is the culmination of the idea "locally flat, globally curved".
The Earth is round, but each map in an atlas is flat. The atlas covers the entire Earth,
although no single map covers it completely without distortions.

In "object—observer" terms, a manifold is a place where the observer
is fundamentally local. There is no global coordinate system for the entire space.

A map is the view of one local observer.
An atlas is a coordinated collection of such views.

On a sphere there is no "correct" coordinate system covering everything without singularities.
There are many maps, and in regions of overlap they are coordinated: if a point falls on
two maps, one can convert coordinates from one to the other.

Transition functions between maps are "dictionaries" between the languages of neighboring
observers. The requirement of smoothness of transition functions guarantees that the notion of
"derivative" does not depend on the choice of map.

What is invariant (does not depend on the map):
  • Dimension — how many coordinates are needed locally
  • Topology — holes, connectedness, orientability
  • Curvature (in the Riemannian case) — intrinsic property of the metric

Coordinates are merely a means of description. The manifold itself exists without them.

-------------------------------------------------------------------------------
 Why manifolds are needed
-------------------------------------------------------------------------------

 Problem: We know how to work with ℝⁿ (coordinates, derivatives, integrals).
          But real spaces are curved.

   • Earth's surface — not a plane
   • Space-time — curved by mass (GR)
   • Configuration space of a robot — complex shape
   • Space of all rotations — not ℝ³

 Solution: Manifold = space that is locally like ℝⁿ
           Globally can be any shape, but at each point — "flat"

 Analogy: World atlas. Earth is round, but each page of the atlas is flat.
          Sufficiently many maps cover the entire Earth.

 Key idea:
   We cannot work with curved space directly.
   But we can break it into pieces, each of which "straightens out" into ℝⁿ.
   Then coordinate these pieces with each other.

-------------------------------------------------------------------------------
 Critical distinction: topology vs geometry
-------------------------------------------------------------------------------

 Manifold (topological + smooth) = only shape
   • Can talk about tangent spaces, derivatives, differential forms
   • Cannot talk about lengths, angles, distances.
   • Sphere and ellipsoid — identical manifolds (diffeomorphic)

 Riemannian manifold = manifold + metric gᵢⱼ
   • Can measure lengths, angles, areas
   • Sphere and ellipsoid — different (different metrics)

 Common engineer's mistake: Curvilinear coordinates in ℝ³
    (cylindrical, spherical) — this is not curvature of space.
    Space is flat (ℝ³), just coordinates are "curved".
    Curvature is a property of the metric, not coordinates.

-------------------------------------------------------------------------------
 Chart — local coordinates
-------------------------------------------------------------------------------

 +----------------------------------------------------------------+
 | DEFINITION: CHART                                              |
 +----------------------------------------------------------------+
 |                                                                |
 | A chart on a topological space M is a pair (U, φ), where:      |
 |                                                                |
 | • U ⊆ M — open set (domain of the chart)                       |
 | • φ: U → ℝⁿ — homeomorphism onto an open subset of ℝⁿ          |
 |                                                                |
 | φ is called the coordinate map (or parameterization).          |
 |                                                                |
 +----------------------------------------------------------------+

 Geometric meaning:

        M (manifold)                  ℝⁿ (coordinate space)

           +-----+                         y
          ╱   U   ╲        φ              ↑
         |    ●p   |   ---------→         |  ●φ(p)
          ╲       ╱                       |
           +-----+                        +------→ x

   A chart "straightens out" a piece of the manifold into flat space.
   A point p ∈ U receives coordinates φ(p) = (x¹, x², ..., xⁿ) ∈ ℝⁿ.

 Why homeomorphism:
 +----------------+----------------------------------------+
 | PROPERTY       | WHAT IT MEANS                          |
 +----------------+----------------------------------------+
 | φ bijective    | Each point of U ↔ exactly one point in ℝⁿ |
 | φ continuous   | Close points remain close              |
 | φ⁻¹ continuous | Can return back                        |
 +----------------+----------------------------------------+

 Examples of charts:
 +--------------+-----------------------------+--------------------------+
 | MANIFOLD     | CHART                       | PECULIARITY              |
 +--------------+-----------------------------+--------------------------+
 | ℝ            | U=ℝ, φ=id                   | One chart suffices       |
 | S¹           | U₁=S¹\{(−1,0)}, φ₁=angle θ  | One chart does not cover.|
 |              | Need second: U₂=S¹\{(1,0)}  | → need atlas of 2 charts |
 +--------------+-----------------------------+--------------------------+

 Visualization for S¹:

            ●--------------●                     -----●-----
           ╱    removed     ╲      φ₁              −π   0   π
          ●        ✕         ●   ----→
           ╲     (−1,0)     ╱
            ●--------------●

-------------------------------------------------------------------------------
Atlas — a set of charts covering the entire manifold
-------------------------------------------------------------------------------

 +-----------------------------------------------------------+
 | DEFINITION: ATLAS                                         |
 +-----------------------------------------------------------+
 |                                                           |
 | An atlas on M is a set of charts 𝒜 = {(Uα, φα)}α∈A such that: |
 |                                                           |
 | ⋃ Uα = M    (charts cover the entire manifold)            |
 | α                                                         |
 |                                                           |
 +-----------------------------------------------------------+

 Example: Atlas for S¹ (minimal)

   Chart 1: U₁ = S¹ \ {(−1, 0)},  φ₁(cos θ, sin θ) = θ ∈ (−π, π)
   Chart 2: U₂ = S¹ \ {(1, 0)},   φ₂(cos θ, sin θ) = θ ∈ (0, 2π)

            Chart 1                         Chart 2
         ●--------------●               ●--------------●
        ╱                ╲             ╱                ╲
       ●        ✕         ●           ●         ✕        ●
        ╲    (−1,0)      ╱             ╲      (1,0)     ╱
         ●--------------●               ●--------------●

   U₁ ∪ U₂ = S¹  ✓  (together cover the entire circle)

 Analogy with geography:
   • Map of Europe covers Europe, but not Australia
   • Map of Australia covers Australia, but not Europe
   • Together = entire world (atlas)
   • Where maps overlap — one can transition from one to another

-------------------------------------------------------------------------------
 Transition functions — how to glue charts
-------------------------------------------------------------------------------

 Problem: If point p lies in two charts (U₁, φ₁) and (U₂, φ₂),
          it has two sets of coordinates: φ₁(p) and φ₂(p).
          How are they related?

 +---------------------------------------------------------------+
 | DEFINITION: TRANSITION FUNCTION                               |
 +---------------------------------------------------------------+
 |                                                               |
 | Transition function from chart (U₁, φ₁) to chart (U₂, φ₂):    |
 |                                                               |
 | ψ₁₂ = φ₂ ∘ φ₁⁻¹ : φ₁(U₁ ∩ U₂) → φ₂(U₁ ∩ U₂)                   |
 |                                                               |
 | This is a map ℝⁿ → ℝⁿ (between coordinate spaces)             |
 |                                                               |
 +---------------------------------------------------------------+

 Diagram:

                           M
                        ╱     ╲
                      U₁       U₂
                        ╲  p  ╱
                     φ₁ ↓ ● ↓ φ₂
                        ╱     ╲
                  φ₁(p)         φ₂(p)
                    ∈ℝⁿ ------→ ∈ℝⁿ
                          ψ₁₂

   ψ₁₂ translates coordinates from the first system to the second.

 Example: Transition function on S¹

   Intersection: U₁ ∩ U₂ = S¹ \ {(−1,0), (1,0)} — two arcs

   +--------------------+-------------+-------------+---------------+
   | ARC                | φ₁ gives    | φ₂ gives    | ψ₁₂(θ) =      |
   +--------------------+-------------+-------------+---------------+
   | Upper (sin>0)      | θ ∈ (0, π)  | θ ∈ (0, π)  | θ (identity)  |
   | Lower (sin<0)      | θ ∈ (−π, 0) | θ ∈ (π, 2π) | θ + 2π        |
   +--------------------+-------------+-------------+---------------+

 Key fact: Transition function ψ₁₂: ℝⁿ → ℝⁿ — an ordinary map.
 We know how to work with it. If we require smoothness of ψ₁₂ → smooth structure.

-------------------------------------------------------------------------------
 Smooth structure — what transitions are allowed
-------------------------------------------------------------------------------

 +------------------------------------------------------------+
 | DEFINITION: SMOOTH ATLAS                                   |
 +------------------------------------------------------------+
 |                                                            |
 | An atlas is called Cᵏ-smooth (or smooth of class Cᵏ), if   |
 | all transition functions ψαβ are Cᵏ-smooth (k times        |
 | continuously differentiable).                              |
 |                                                            |
 | C∞-smooth atlas: all transitions are infinitely differentiable. |
 | Such an atlas is called simply "smooth".                   |
 |                                                            |
 +------------------------------------------------------------+

 +------------------------------------------------------------------------+
 | DEFINITION: SMOOTH MANIFOLD                                            |
 +------------------------------------------------------------------------+
 |                                                                        |
 | A smooth manifold of dimension n is a topological space M              |
 | with a maximal C∞-smooth atlas.                                        |
 |                                                                        |
 | technical requirements (usually assumed):                              |
 | • Hausdorff property: distinct points are separable by neighborhoods   |
 | • Second-countable: topology has a countable basis                     |
 | (Without them pathologies arise, for example "long line")              |
 |                                                                        |
 | (Maximal = contains all charts compatible with the given ones)         |
 |                                                                        |
 +------------------------------------------------------------------------+

 Hierarchy of structures:

   +---------------------------------------------------------------------+
   | TYPE OF MANIFOLD      | TRANSITION FUNCTIONS | WHAT CAN BE DONE     |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | Topological           | Homeomorphisms      | Talk about closeness, |
   |                       | (continuous)        | connectedness, but not|
   |                       |                     | about derivatives     |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | C¹-smooth             | Differentiable      | Define tangent        |
   |                       | (1 derivative)      | vectors               |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | C∞-smooth             | Infinitely          | Differentiate         |
   | (simply "smooth")     | differentiable      | as many times as      |
   |                       |                     | desired               |
   +-----------------------+---------------------+-----------------------+
   |                       |                     |                       |
   | Analytic (Cω)         | Analytic            | Expand into Taylor    |
   |                       | (Taylor series)     | series                |
   |                       |                     |                       |
   +-----------------------+---------------------+-----------------------+

 Why smoothness is needed:

   Problem: define the derivative of a function f: M → ℝ on a manifold

   Answer: We work in coordinates.
     1. Choose a chart (U, φ) around point p
     2. Consider f ∘ φ⁻¹: ℝⁿ → ℝ (an ordinary function)
     3. Differentiate as usual

   Problem: What if we choose a different chart?

   Solution: If transition functions are smooth, then:
     ∂f/∂x' = (∂x/∂x') · (∂f/∂x)  (chain rule)
     Derivatives in different charts are coordinated.

-------------------------------------------------------------------------------
Detailed example: atlas for the sphere S²
-------------------------------------------------------------------------------

 S² = {(x, y, z) ∈ ℝ³ : x² + y² + z² = 1}

 Method 1: stereographic projection (minimal atlas — 2 charts)

 Chart 1: Projection from the north pole N = (0, 0, 1)

          N ●
           /|\
          / | \           Project point P onto the plane z = 0
         /  |  \          through the line NP
        /   |   \
       ●----+----●
      P     |    φ₁(P)
       \    |   /
        \   |  /
         ---+---  plane z = 0

   U₁ = S² \ {N}  (entire sphere without the north pole)

   φ₁(x, y, z) = (x/(1−z), y/(1−z))

   φ₁⁻¹(u, v) = (2u/(1+u²+v²), 2v/(1+u²+v²), (u²+v²−1)/(1+u²+v²))

 Chart 2: Projection from the south pole S = (0, 0, −1)

   U₂ = S² \ {S}  (entire sphere without the south pole)

   φ₂(x, y, z) = (x/(1+z), y/(1+z))

 Transition function ψ₁₂ = φ₂ ∘ φ₁⁻¹:

   On the intersection U₁ ∩ U₂ = S² \ {N, S}:

   ψ₁₂(u, v) = (u, v)/(u² + v²) = (u/(u²+v²), v/(u²+v²))

   This is inversion with respect to the unit circle.

   Smoothness check: ψ₁₂ is infinitely differentiable on ℝ² \ {0}. ✓
   (The origin corresponds to the poles, which are not in the intersection)

 Method 2: projections onto coordinate planes (6 charts)

 +-------+-------------+------------------+--------------------+
 | CHART | DOMAIN Uₖ±  | MAP φ            | WHICH PART         |
 +-------+-------------+------------------+--------------------+
 | U₁⁺   | z > 0    | φ(x,y,z) = (x,y) | Upper hemisphere   |
 | U₁⁻   | z < 0    | φ(x,y,z) = (x,y) | Lower hemisphere   |
 | U₂⁺   | y > 0    | φ(x,y,z) = (x,z) | Front hemisphere   |
 | U₂⁻   | y < 0    | φ(x,y,z) = (x,z) | Back hemisphere    |
 | U₃⁺   | x > 0    | φ(x,y,z) = (y,z) | Right hemisphere   |
 | U₃⁻   | x < 0    | φ(x,y,z) = (y,z) | Left hemisphere    |
 +-------+-------------+------------------+--------------------+

 Analogy: a world atlas uses different projections for different regions.

 Remark: There does not exist an atlas of S² from a single chart.
   This follows from the compactness of S² and the fact that ℝ² is non-compact.
   Topologically S² ≠ ℝ² (one is compact, the other is not).

-------------------------------------------------------------------------------
 Hierarchy of spaces — from simple to complex
-------------------------------------------------------------------------------

   Topological space (X, τ)
     | add: local Euclideanness + Hausdorffness
     ↓
   Topological manifold
     | add: smooth structure (C∞ transition functions)
     ↓
   Smooth manifold ← main object of differential geometry
     | add: metric gᵢⱼ (way to measure distances)
     ↓
   Riemannian manifold
     | add: physics (Einstein equations)
     ↓
   Spacetime of GR

 At each level structure is added, but the previous is not lost.

-------------------------------------------------------------------------------
 Tangent space TₚM — local linearity
-------------------------------------------------------------------------------

 Problem: define the notion of velocity on a curved space

 On ℝⁿ it's simple: velocity = vector = arrow.
 On a sphere: where does the arrow point? It "flies out" from the sphere.

 Definition (intuitive):
   A tangent vector at point p is the velocity of a curve passing through p.

 Definition (formal via curves):
   Let γ: (−ε, ε) → M be a smooth curve, γ(0) = p.
   Tangent vector: v = γ'(0) = dγ/dt|_{t=0}

   The set of all tangent vectors at point p forms
   the tangent space TₚM.

-------------------------------------------------------------------------------
 Three equivalent definitions of tangent vector
-------------------------------------------------------------------------------

 1. Geometric (equivalence classes of curves):
    Two curves γ₁, γ₂ with γ₁(0) = γ₂(0) = p are equivalent if
    (φ ∘ γ₁)'(0) = (φ ∘ γ₂)'(0) in any chart φ.
    Tangent vector = equivalence class of curves.
    Intuition: the curve itself doesn't matter, only its "velocity" at p matters.

 2. Algebraic (via derivations):
    Tangent vector = linear operator v: C∞(M) → ℝ with the Leibniz rule.

 3. Coordinate:
    Tangent vector = set of numbers (v¹, ..., vⁿ), transforming
    by the rule v'ⁱ = (∂x'ⁱ/∂xʲ)vʲ under coordinate change.

 All three definitions are equivalent — they give the same TₚM ≅ ℝⁿ.

 Visualization:

                    TₚM (plane tangent to the sphere at point p)
                   ╱ ╲
                  ╱   ╲  ← velocity vectors live here
                 ╱  ●  ╲
                ╱   p   ╲
            ---●---------●---
              ╱    ⌒      ╲   ← sphere (manifold M)
             ╱             �╲

 In coordinates:
   Let (U, φ) be a chart near p with coordinates (x¹, ..., xⁿ).
   Basis of TₚM:  ∂/∂x¹|ₚ, ∂/∂x²|ₚ, ..., ∂/∂xⁿ|ₚ

   Any vector v ∈ TₚM: v = vⁱ ∂/∂xⁱ|ₚ  (sum over i)

-------------------------------------------------------------------------------
Important: Why ∂/∂xⁱ are these "vectors"?
-------------------------------------------------------------------------------

 In linear algebra a vector is an "arrow" or a "column of numbers".
 On a manifold this doesn't work: an arrow "flies out" from a curved surface.

 Solution: Define a vector as differentiation.

   A tangent vector v at point p is a linear operator v: C∞(M) → ℝ,
   satisfying the Leibniz rule:
       v(fg) = v(f)·g(p) + f(p)·v(g)

   ∂/∂xⁱ|ₚ is an operator: f ↦ ∂f/∂xⁱ|ₚ (partial derivative at point p).
   It satisfies Leibniz, therefore — a tangent vector.

 Intuition: A vector is a "direction of change of functions".
   Arrow → "how fast and where does the value of a function change when moving".

 Key facts:

 +---------------------------+----------------------------------+
 | FACT                      | CONSEQUENCE                      |
 +---------------------------+----------------------------------+
 | TₚM ≅ ℝⁿ                  | Linear algebra works.            |
 | dim(TₚM) = dim(M)         | Dimension is preserved           |
 | Different points → different TₚM | Cannot add v ∈ TₚM and w ∈ TᵧM |
 | Basis: ∂/∂xⁱ              | v = vⁱ ∂/∂xⁱ (sum over i)        |
 +---------------------------+----------------------------------+

 +---------------------+------------------------------------------+
 | PHYSICAL QUANTITY   | MATHEMATICAL OBJECT                      |
 +---------------------+------------------------------------------+
 | Position            | Point p ∈ M                              |
 | Velocity            | Vector v ∈ TₚM                           |
 | Acceleration        | Requires connection (comparison of different TₚM) |
 +---------------------+------------------------------------------+

-------------------------------------------------------------------------------
 Smooth mappings of manifolds
-------------------------------------------------------------------------------

 +-----------------------------------------------------------------+
 | DEFINITION: SMOOTH MAPPING                                      |
 +-----------------------------------------------------------------+
 |                                                                 |
 | A mapping f: M → N between smooth manifolds is called           |
 | smooth, if for any charts (U, φ) on M and (V, ψ) on N          |
 | the composition ψ ∘ f ∘ φ⁻¹ : ℝᵐ → ℝⁿ is smooth (as an ordinary function). |
 |                                                                 |
 +-----------------------------------------------------------------+

 Diagram:

      M ----------f----------→ N
      |                        |
    φ |                        | ψ
      ↓                        ↓
     ℝᵐ -----ψ∘f∘φ⁻¹--------→ ℝⁿ
            (smooth)

 Differential of a mapping:

   A smooth f: M → N generates a linear mapping
   df_p: TₚM → T_{f(p)}N  (differential or pushforward)

   This is a "linear approximation" of f near point p.

 +------------------------------------------------------------------+
 | DEFINITION: DIFFEOMORPHISM                                       |
 +------------------------------------------------------------------+
 |                                                                  |
 | A diffeomorphism is a smooth bijection f: M → N such that f⁻¹ is also |
 | smooth. This is an "isomorphism" in the category of smooth manifolds. |
 |                                                                  |
 | If there exists a diffeomorphism M → N, we write M ≅ N (diffeomorphic). |
 |                                                                  |
 +------------------------------------------------------------------+

 Hierarchy of "sameness":

   Homeomorphism: M ≈ N (topologically)  — same "shape"
   Diffeomorphism: M ≅ N (smoothly)      — same "smooth structure"
   Isometry: M = N (metrically)          — same "distances"

 Example: S² ≈ ellipsoid (homeomorphic)
         S² ≅ ellipsoid (diffeomorphic)
         S² ≠ ellipsoid (not isometric — different curvature)


 Examples of manifolds
+---------------+-----+------------------------------------------------------+
| MANIFOLD      | dim | WHAT IT IS / WHERE IT OCCURS                         |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Circle S¹     | 1   | Angle of rotation, wave phase, time on a clock       |
|               |     | Minimal atlas: 2 charts                              |
|               |     | π₁(S¹) = ℤ (loops wind around)                       |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Sphere S²     | 2   | Surface of Earth, direction in space                 |
|               |     | Minimal atlas: 2 charts (stereographic projections)  |
|               |     | π₁(S²) = 0, H₂(S²) = ℤ                               |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Torus T²      | 2   | Donut, periodic boundary conditions                  |
|               |     | = S¹ × S¹ (two independent angles)                   |
|               |     | π₁(T²) = ℤ × ℤ (two independent loops)               |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| ℝPⁿ (project.)| n   | "Directions of lines" (line = pair of opposite points) |
|               |     | ℝP² non-orientable. (like Möbius strip)              |
|               |     | π₁(ℝPⁿ) = ℤ/2 for n ≥ 2                              |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| SO(3)         | 3   | All rotations in 3D (orientation of a body)          |
|               |     | ≅ ℝP³, not a sphere.                                 |
|               |     | π₁(SO(3)) = ℤ/2 (belt trick)                         |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| GL(n,ℝ)       | n²  | Invertible matrices n×n                              |
|               |     | Open subset of ℝⁿ² (det ≠ 0)                         |
|               |     | Lie group — manifold + group.                        |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+
|               |     |                                                      |
| Spacetime     | 4   | 3 spatial + 1 temporal dimension                     |
|               |     | Curved by mass → gravity.                            |
|               |     | Pseudo-Riemannian (metric not positive definite)     |
|               |     |                                                      |
+---------------+-----+------------------------------------------------------+

-------------------------------------------------------------------------------
Connectedness — how to compare vectors at different points
-------------------------------------------------------------------------------

 Problem:
   On ℝⁿ one can compare vectors at different points — simply "translate".
   On a curved space this is impossible without additional structure.

   A vector in Moscow and a vector in Sydney — how to compare if Earth is round?

 Solution: Connection
   Connection = rule defining "parallel transport" of a vector
   along a curve.

 Visualization of parallel transport:

   Plane (curvature = 0): sphere (curvature > 0):

       B ●----------● C                   B ●-----● C
         |  ----→   |                      /   →   \
         |  ----→   |                     / ↗   ↘   \
         |  ----→   |                    /           \
       A ●----------● D                A ●-----------● D
         ↑          ↑                    ↖           ↗
       Vector    Same                 Vector    different
       at A      vector.              at A      vector.

   On plane: transport along contour A→B→C→D→A returns the same vector.
   On sphere: vector rotates. Angle of rotation = curvature × area.

 Example on sphere:

                     North pole
                          ●
                         /|\
                        / | \
                       /  ↓  \
                      /   |   \      1. Start at equator with vector →
       Equator ------●----|----●     2. Go north to pole
                     |    |    |     3. Turn 90° and go south
                     |    |    |     4. Vector now points ↑
                     |    |    |        (rotated by 90°.)
                     ●----+----●

 Explanation of terms (before reading formulas):

 Γ(TM) — "sections of tangent bundle" — these are simply vector fields.
   Vector field X is a choice of vector X(p) ∈ TₚM at each point p ∈ M.
   Example: wind field on Earth — at each point a velocity vector is given.

 (Xf) or X(f) — action of vector field X on function f: M → ℝ.
   This is derivative of f in direction X: (Xf)(p) = rate of change of f
   at point p, if moving in direction X(p).
   In coordinates: if X = Xⁱ∂/∂xⁱ, then Xf = Xⁱ(∂f/∂xⁱ).
   Example: X = "eastward", f = temperature. Xf = "how fast it warms
   when moving eastward".

 [X,Y] — Lie bracket (commutator) of two vector fields.
   Definition: [X,Y](f) = X(Y(f)) − Y(X(f))
   Meaning: [X,Y] measures how much the operations "shift by X" and
   "shift by Y" do not commute.
   If [X,Y] = 0, then X and Y are "compatible" — order of movement doesn't matter.
   Example: [∂/∂x, ∂/∂y] = 0 (shift by x and by y commute).

 Mathematical definition:

   Connection ∇ is a mapping
   ∇: Γ(TM) × Γ(TM) → Γ(TM)
   (X, Y) ↦ ∇_X Y  (derivative of Y in direction X)

   satisfying:
   • ∇_{fX}Y = f∇_X Y  (linear in X with coefficients from functions)
   • ∇_X(Y+Z) = ∇_X Y + ∇_X Z  (linear in Y)
   • ∇_X(fY) = (Xf)Y + f∇_X Y  (Leibniz rule)

 In coordinates:

   ∇_{∂/∂xⁱ}(∂/∂xʲ) = Γᵏᵢⱼ (∂/∂xᵏ)

   Γᵏᵢⱼ — Christoffel symbols (n³ functions)

   Meaning of Christoffel symbols:

   Γᵏᵢⱼ shows: when I move in direction i, how does basis vector
   ∂/∂xʲ "rotate" in direction k?

   On plane: Γ = 0 everywhere (basis vectors don't change when moving)
   On sphere: Γ ≠ 0 (when moving "direction to north" rotates)

   Analogy: Imagine carrying a long pole along a surface.
   On plane pole preserves direction by itself.
   On sphere one needs to constantly "steer" to preserve parallelness.
   Γᵏᵢⱼ = magnitude of this "steering".

   For metric connection (Levi–Civita):
   Γᵏᵢⱼ = ½gᵏˡ(∂gᵢˡ/∂xʲ + ∂gⱼˡ/∂xⁱ − ∂gᵢⱼ/∂xˡ)

   This formula says: Christoffel symbols are completely determined by
   metric gᵢⱼ and its derivatives. Geometry → connection automatically.

 Critically important: Γᵏᵢⱼ — not a tensor.

   Under change of coordinates an additional term with second derivatives appears:

   Γ'ᵏᵢⱼ = (∂x'ᵏ/∂xˡ)(∂xᵐ/∂x'ⁱ)(∂xⁿ/∂x'ʲ)Γˡₘₙ + (∂x'ᵏ/∂xˡ)(∂²xˡ/∂x'ⁱ∂x'ʲ)
                      ↑                            ↑
               tensor part                   NONtensor addition

   This is precisely why Γ depends on choice of coordinates.
   On plane in Cartesian Γ = 0, but in polar Γ ≠ 0.
   But plane remained flat — only coordinates changed.

   Consequence: Cannot say "Γ = 0 means space is flat".
   Can say: "There exist coordinates in which Γ = 0" ⟺ flat.

 Types of connections:
 +--------------+-----------------------------------------------+
 | TYPE         | PROPERTY                                      |
 +--------------+-----------------------------------------------+
 | Metric       | Preserves scalar product under transport      |
 | Torsion-free | ∇_X Y − ∇_Y X = [X,Y]                         |
 | Levi–Civita  | Metric + torsion-free (unique)                |
 +--------------+-----------------------------------------------+

-------------------------------------------------------------------------------
Curvature — measure of non-flatness
-------------------------------------------------------------------------------

 How to detect curvature (without going into the ambient space):

+-------------------+-------------------------------------------------+
| METHOD            | WHAT HAPPENS                                    |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Parallel          | Plane: vector returned the same                 |
| transport along   | Curved: vector rotated                          |
| closed path       |                                                 |
|                   |                                                 |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Sum of angles     | Plane: α+β+γ = 180°                             |
| of triangle       | Sphere: α+β+γ > 180° (positive curvature)      |
|                   | Saddle: α+β+γ < 180° (negative curvature)      |
|                   |                                                 |
+-------------------+-------------------------------------------------+
|                   |                                                 |
| Riemann tensor    | Rⁱⱼₖₗ = rotation of vⁱ when traversing          |
| (formal def.)     | inf. small parallelogram in directions k,l      |
|                   |                                                 |
+-------------------+-------------------------------------------------+

 Physics: curvature = gravity (GR)

 +----------------------------+--------------------------------------+
 | CAUSE                      | CONSEQUENCE                          |
 +----------------------------+--------------------------------------+
 | Mass/energy                | Curves spacetime                     |
 | Bodies move along geodesic | Looks like attraction = geometry.    |
 | Einstein equation          | Rμν − ½gμνR = 8πG·Tμν                |
 |                            | (curvature = matter)                 |
 +----------------------------+--------------------------------------+


 Connection with other areas

+----------------+-------------------------------------------------------+
| AREA           | HOW IT CONNECTS TO MANIFOLDS                          |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Topology       | Manifold = top. space + smooth structure              |
|                | Invariants π₁, Hₙ, χ work for manifolds               |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Groups         | Lie groups = manifolds + group structure              |
|                | SO(3), SU(2), GL(n) — both groups and manifolds       |
|                | Lie algebra = T_e (tangent space at identity)         |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Lin. algebra   | TₚM — vector space at each point                      |
|                | Locally all linear algebra works.                     |
|                | Connection = way to "join" TₚM at different points    |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Duality        | T*ₚM — cotangent (where df, dp live)                  |
|                | Vector: where to move. Covector: how to measure       |
|                | Differential forms ∈ ∧ᵏT*M                            |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Tensors        | Tensor field = tensor at each point                   |
|                | Metric gᵢⱼ — field (0,2). Curvature Rⁱⱼₖₗ — field (1,3)|
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Noether        | Symmetries of manifold → conservation laws            |
|                | Shifts → momentum. Rotations → angular momentum       |
|                |                                                       |
+----------------+-------------------------------------------------------+
|                |                                                       |
| Categories     | Man = category of smooth manifolds                    |
|                | Functor T: Man → VectBund (tangent bundle)            |
|                |                                                       |
+----------------+-------------------------------------------------------+

 Summary: manifold as central object


                          Manifold M
                               |
         +---------------------+---------------------+
         |                     |                     |
         ↓                     ↓                     ↓
    Locally               Globally             Structures
    ≈ ℝⁿ                  (topology)           on manifold
    (charts, atlas)       (π₁, Hₙ, χ)          (metric, connection)
         |                     |                     |
         ↓                     ↓                     ↓
    Can                   Distinguish          Measure
    differentiate         spaces               distances
    (TₚM, df)             (invariants)         (gᵢⱼ, curvature)

 Main idea:
   Manifold is a way to locally use familiar tools
   (coordinates, derivatives, integrals) on globally complex spaces.

 Practical applications:
   • Physics: spacetime, configuration space
   • Robotics: state space (positions and orientations)
   • Machine learning: data manifold (manifold hypothesis)
   • Optimization: optimization on manifolds (Riemannian optimization)

-------------------------------------------------------------------------------
Applied example: turbine blade surface
-------------------------------------------------------------------------------

 Problem: Calculate heat transfer on the surface of a gas turbine blade.
 The surface has a complex curvilinear shape — no "natural" x, y.

           ╭---------------╮
          ╱                 ╲        Surface S — 2D manifold,
         ╱                   ╲       embedded in ℝ³
        |      BLADE          |
         ╲                   ╱       Need local coordinates (u, v)
          ╲                 ╱        on the surface
           ╰---------------╯

 Local coordinates:
   u — along the profile chord (0 = leading edge, 1 = trailing edge)
   v — along the span (0 = root, 1 = tip)

   Point on the surface: r(u, v) = (x(u,v), y(u,v), z(u,v))

 Metric on the surface:
   How to measure distance between two points on the blade?

   ds² = g₁₁ du² + 2g₁₂ du dv + g₂₂ dv²

   where gᵢⱼ = ∂r/∂uⁱ · ∂r/∂uʲ — components of the metric tensor

 Surface element area:
   dA = √(g₁₁g₂₂ − g₁₂²) du dv = √det(g) du dv

 Heat flux integral:
   Q = ∬_S q(u,v) dA = ∬ q(u,v) √det(g) du dv

   The metric "knows" how areas are distorted in the transition from flat
   (u,v)-space to the real curved surface.

 Numerical example:
   If in flat coordinates q = 50 kW/m² = const,
   but the blade is curved such that √det(g) ≈ 1.3 (area is "stretched"),
   then the real flux Q = 50 × 1.3 × A₍ᵤᵥ₎ = 65 kW per unit (u,v)-area


 Moral: Manifold = way to work with curvilinear surfaces
 through local coordinates. The metric gᵢⱼ "translates" formulas from the flat
 case to the curvilinear one. Without this language — calculations for turbines,
 heat exchangers of complex shape, aerodynamic surfaces are impossible.

-------------------------------------------------------------------------------
Connection and curvature — how to compare vectors at different points
-------------------------------------------------------------------------------

 Problem: how to compare vectors at different points?


 In ℝⁿ this is trivial: parallel transport and compare.

 On a curved surface — unclear.

              vector at point A
                    ↗
                   A ------------------- B
                  ╱                       ╲      vector at point B
                 ╱    curved               ╲          ↘
                ╱      surface              ╲

   Vector at A and vector at B live in different tangent spaces.
   They cannot be directly added or subtracted.

   Need a rule: how to "transport" a vector from A to B for comparison.


 Connection = rule of parallel transport


 Connection ∇ is a rule for how to differentiate vector fields.

   ∇_X Y = "derivative of field Y in direction X"

 Covariant derivative:
   In coordinates: ∇_∂ᵢ ∂ⱼ = Γᵏᵢⱼ ∂ₖ

   Γᵏᵢⱼ — Christoffel symbols (connection coefficients)

 For a metric (Levi–Civita connection):

   Γᵏᵢⱼ = ½gᵏˡ(∂ᵢgⱼˡ + ∂ⱼgᵢˡ − ∂ˡgᵢⱼ)

   This connection:
   • Preserves the metric: ∇g = 0
   • Torsion-free: Γᵏᵢⱼ = Γᵏⱼᵢ
   • Unique with these properties.

-------------------------------------------------------------------------------
 Parallel transport — visualization
-------------------------------------------------------------------------------

 A vector is "parallel transported" along a curve γ(t) if:

   ∇_γ̇ V = 0    (covariant derivative along the curve = 0)

 On a plane: Parallel transport is obvious — direction is preserved.

 On a sphere — surprise.

        North pole
              N
             /|\
   vector → / | \
           /  |  \   Transport vector along a closed path:
          A---+---B  N → A → B → N
              |
              |      Vector has rotated

   Rotation angle = triangle area / R² (where R — sphere radius)

   This rotation — manifestation of curvature.

-------------------------------------------------------------------------------
 Curvature — measure of "non-flatness"
-------------------------------------------------------------------------------

 Riemann curvature tensor:

   R(X, Y)Z = ∇_X ∇_Y Z − ∇_Y ∇_X Z − ∇_[X,Y] Z

 What does this measure:
   Transport vector Z first in direction X, then Y.
   Then in direction Y, then X.
   Difference = R(X, Y)Z.

   If R = 0 everywhere — space is flat (locally like ℝⁿ).

 In coordinates:
   Rᵏₗᵢⱼ = ∂ᵢΓᵏⱼₗ − ∂ⱼΓᵏᵢₗ + ΓᵏᵢₘΓᵐⱼₗ − ΓᵏⱼₘΓᵐᵢₗ

 Important contractions:
   • Ricci tensor: Rᵢⱼ = Rᵏᵢₖⱼ
   • Scalar curvature: R = gⁱʲRᵢⱼ

 For a surface (2d):
   K = R/2 — Gaussian curvature
   K > 0: sphere (positive curvature)
   K = 0: plane, cylinder
   K < 0: saddle (negative curvature)

-------------------------------------------------------------------------------
 Geodesics — "straight lines" on curved space
-------------------------------------------------------------------------------

 Definition: Geodesic — curve that parallel transports its velocity
              vector:

              ∇_γ̇ γ̇ = 0

 In coordinates (geodesic equation):

              d²xᵏ/dt² + Γᵏᵢⱼ (dxⁱ/dt)(dxʲ/dt) = 0

 Examples:
   • On a plane: straight lines
   • On a sphere: great circles (equator, meridians)
   • In GR: trajectories of free particles in a gravitational field

 Equivalent definitions:
   1. Curve of shortest length (locally)
   2. Curve extremizing ∫ ds
   3. Curve with zero geodesic acceleration

 Important: geodesic is a local minimum of length, not global.
     On a sphere from A to B one can go by a "short" or "long" path —
     both are geodesics.

-------------------------------------------------------------------------------
Gauss' Theorema Egregium — a profound result
-------------------------------------------------------------------------------

 Gaussian curvature K depends only on the metric gᵢⱼ, but not on how
 the surface is embedded in ℝ³.

 Consequence: It is impossible to draw a map of a sphere on a plane without distortions.

   Sphere: K = 1/R² > 0
   Plane: K = 0

   Any world map necessarily distorts either angles or areas.
   (Mercator distorts areas, equal-area projections — angles)

 But a cylinder can be unrolled onto a plane without distortions.
   Cylinder: K = 0 (one of the principal curvatures equals zero)


 Connection with physics: general relativity


 Einstein's equations:

   Rᵢⱼ − ½Rgᵢⱼ = (8πG/c⁴) Tᵢⱼ

   Left side: geometry (curvature of spacetime)
   Right side: matter (energy-momentum tensor)

 Trajectories of freely falling bodies = geodesics in curved
 spacetime. Gravitation is not a force, but geometry.


-------------------------------------------------------------------------------
Bundles — spaces over spaces
-------------------------------------------------------------------------------

 Motivation: tangent vectors to all points


 On a manifold M at each point p there is a tangent space TₚM.

 Question: How to organize all tangent spaces into a single structure?

 Answer: We unite them into a bundle:

              TM = ⋃_{p∈M} TₚM

   This is a new manifold — the tangent bundle.
   dim(TM) = 2·dim(M)

-------------------------------------------------------------------------------
 Definition: bundle
-------------------------------------------------------------------------------

 A bundle is a triple (E, π, B), where:

   E — total space (the entire bundle)
   B — base (space over which the bundle is fibered)
   π: E → B — projection

   For each point b ∈ B the preimage π⁻¹(b) = F is called the fiber.

 Visualization:

       E (total space)
       |
       |    F₁    F₂    F₃    ← fibers (all isomorphic to F)
       |    |     |     |
       |    |     |     |
       ▼    ▼     ▼     ▼
       ----●-----●-----●----  B (base)
           b₁    b₂    b₃

 Locally: E ≅ U × F (product of neighborhood U ⊂ B and fiber F)
 Globally: may be twisted.

-------------------------------------------------------------------------------
 Trivial vs nontrivial bundle
-------------------------------------------------------------------------------

 Trivial: E = B × F globally (simply a product)

   Example: cylinder = S¹ × ℝ

         +-----------+
         |           |
         |  cylinder |     Base: circle S¹
         |           |     Fiber: line ℝ
         +-----------+

 Nontrivial: globally does not decompose into a product

   Example: Möbius strip.

         +-----╲╱-----+
         |     ╲╱     |    Base: S¹ (circle)
         |      ╳     |    Fiber: segment [-1, 1]
         |     ╱╲     |    But globally — twisted.
         +-----╱╲-----+

   Going around the base in a circle, the fiber flips.


 Principal types of bundles
+------------------------+----------+---------------------------------+
| BUNDLE                 | FIBER F  | EXAMPLE                         |
+------------------------+----------+---------------------------------+
| Tangent TM             | ℝⁿ       | All velocities at a point       |
+------------------------+----------+---------------------------------+
| Cotangent T*M          | ℝⁿ       | All momenta at a point          |
+------------------------+----------+---------------------------------+
| Tensor                 | Tensors  | All tensors of type (p,q) at pt |
+------------------------+----------+---------------------------------+
| Principal (G-bundle)   | Group G  | Gauge fields in physics         |
+------------------------+----------+---------------------------------+
| Frame bundle           | GL(n)    | All bases of tangent space      |
+------------------------+----------+---------------------------------+

-------------------------------------------------------------------------------
 Section of a bundle = field on a manifold
-------------------------------------------------------------------------------

 A section s: B → E is a map where π(s(b)) = b for all b.
 (We choose one point from each fiber)

   • Section of TM = vector field on M
   • Section of T*M = 1-form on M
   • Section of tensor bundle = tensor field

 Example: Wind velocity field — section of tangent bundle TS²
         (S² = surface of Earth)

 Hairy Ball Theorem:
   On S² there does not exist a continuous nonzero vector field.
   (Cannot comb a hedgehog — somewhere there will be a "cowlick")

   Reason: tangent bundle TS² is nontrivial.

-------------------------------------------------------------------------------
 Connection on a bundle — how to transport between fibers
-------------------------------------------------------------------------------
Connection on a bundle = rule for how to transport an element of a fiber
 along a path on the base.

 For tangent bundle:
   Connection = Christoffel symbols Γᵏᵢⱼ
   This is what we defined above

 For principal g-bundle:
   Connection = 1-form A with values in Lie algebra g
   In physics: A — gauge potential.

 Curvature of bundle:
   F = dA + A ∧ A   (curvature 2-form)
   In physics: F — field strength.

   Electromagnetism: G = U(1), A = potential, F = E, B
   Standard model: G = SU(3)×SU(2)×U(1)


-------------------------------------------------------------------------------
Characteristic classes — topology of bundles
-------------------------------------------------------------------------------

 Idea: measuring "twistedness" of bundle


 Bundle can be trivial (E = B × F) or nontrivial.
 Characteristic classes are numerical invariants measuring
 "how much the bundle is twisted".

 They live in cohomology of base: cᵢ ∈ H*(B)

 If class is nonzero — bundle is definitely nontrivial.
 If zero — may be trivial, or may not (necessary, not sufficient)

-------------------------------------------------------------------------------
 Chern classes — for complex bundles
-------------------------------------------------------------------------------

 For complex vector bundle E → B are defined:

   c₀(E) = 1,  c₁(E),  c₂(E),  .,  cₙ(E)   where n = dim_ℂ(E)

   cₖ(E) ∈ H²ᵏ(B; ℤ)   — Chern class of degree k

 Key properties:
   • c(E⊕F) = c(E) ∪ c(F)  (additivity with respect to direct sum)
   • c(E*) = c̄(E)  (classes of conjugate bundle)
   • For line bundle L: c₁(L) = Euler class

 Example: Tangent bundle of sphere
   c₁(TS²) = 2 ∈ H²(S²) ≅ ℤ
   This is related to "hairy ball" theorem and Euler characteristic.

-------------------------------------------------------------------------------
 Pontryagin and Euler classes — for real bundles
-------------------------------------------------------------------------------

 For real bundle E → B:

   pₖ(E) ∈ H⁴ᵏ(B; ℤ)   — Pontryagin class
   e(E) ∈ Hⁿ(B; ℤ)     — Euler class (if E is oriented, n = rank E)

 Gauss–Bonnet–Chern theorem:

   ∫_M e(TM) = χ(M)   (integral of Euler class = Euler characteristic)

   This is generalization of Gauss–Bonnet theorem to any dimensions.

-------------------------------------------------------------------------------
 Applications in physics
-------------------------------------------------------------------------------

 Quantization of magnetic monopole (Dirac):
   Magnetic charge g is quantized: eg = nℏ/2
   Reason: first Chern class of line bundle over S² is integral.

 Anomalies in quantum field theory:
   Gauge anomalies are related to Chern classes of bundle
   of gauge group.

 Topological insulators:
   Chern classes of electron bands determine quantum Hall effect.
   c₁ = 0, ±1, ±2, ... → Hall conductivity = c₁ · e²/h

-------------------------------------------------------------------------------
 Projective spaces — geometry of "directions"
-------------------------------------------------------------------------------

 Intuition: What is projective space

 Imagine we stand at origin and look in different directions.
 Each direction of gaze is a point of projective space.

 Formally: Points (x, y, z) and (2x, 2y, 2z) define one direction.
 We "glue" all points on one ray from origin.

-------------------------------------------------------------------------------
 Definition
-------------------------------------------------------------------------------

 Real projective space ℝPⁿ:

   ℝPⁿ = (ℝⁿ⁺¹ \ {0}) / ~,  where  x ~ y ⟺ x = λy for λ ≠ 0

 In other words: ℝPⁿ = set of lines in ℝⁿ⁺¹ passing through 0.

 Homogeneous coordinates:
   Point of ℝPⁿ is written as [x₀ : x₁ : . : xₙ]
   This is equivalence class: [x₀ : x₁ : . : xₙ] = [λx₀ : λx₁ : . : λxₙ]

 Dimensions:
   • ℝP¹ — projective line (topologically = circle S¹)
   • ℝP² — projective plane (non-orientable surface)
   • ℝP³ ≅ SO(3) — space of rotations in 3D

-------------------------------------------------------------------------------
 Visualization of ℝP¹ and ℝP²
-------------------------------------------------------------------------------

 ℝP¹ — projective line:

   Take ℝ² \ {0} and glue opposite points (x,y) ~ (-x,-y).

              y
              |    ╱
              |   ╱  ← this line = one point of ℝP¹
              |  ╱
        ------●------ x
             ╱|
            ╱ |

   Can parametrize by slope: [1 : t] for t ∈ ℝ, plus [0 : 1] (vert.)
   This is ℝ ∪ {∞} — line with added "infinity". Topologically = S¹.

 ℝP² — projective plane:

   Take hemisphere and glue opposite points on equator:

              ╭-------╮
            ╱    ●      ╲      Interior of hemisphere — ordinary plane
           |      ●      |     Boundary (equator) — "infinity"
           |   ●    ●    |     But points A and A' on equator are glued.
            ╲   A    A' ╱
              ╰-------╯

   Result: non-orientable surface (contains Möbius strip).
   Cannot be embedded in ℝ³ without self-intersections.

-------------------------------------------------------------------------------
Why Projective Spaces
-------------------------------------------------------------------------------

 1. parallel lines intersect "at infinity"

    In ordinary geometry, parallel lines do not intersect.
    In projective geometry — they intersect at an "infinitely distant point".

    This simplifies many theorems: Pappus' theorem, Desargues' theorem, duality.

 2. computer graphics

    Homogeneous coordinates [x : y : z : w] — standard in 3D graphics.
    Point in 3D: [x : y : z : 1] → (x/1, y/1, z/1)
    Point "at infinity": [x : y : z : 0] — direction

    All transformations (translation, rotation, scaling, perspective) —
    are multiplication by a 4×4 matrix.

    Without homogeneous coordinates, translation is not a linear transformation.
    With them — linear. This is a huge simplification for GPUs.

 3. algebraic geometry

    Many theorems are simpler in projective space:

    Bézout's theorem: Two curves of degrees m and n in ℙ² intersect
    in exactly mn points (counting multiplicities and points at infinity).

    In the ordinary plane: a line and parabola may not intersect (0, 1, or 2).
    In projective: a line (degree 1) and conic (degree 2) — always 2 points.

 4. physics: state space

    In quantum mechanics, a pure state is a ray in Hilbert space.
    |ψ⟩ and λ|ψ⟩ — same state (global phase is not observable).

    For a qubit: state space = ℂP¹ = Bloch sphere (S²).

-------------------------------------------------------------------------------
 Complex Projective Space ℂPⁿ
-------------------------------------------------------------------------------

 Analogous to the real case, but over ℂ:

   ℂPⁿ = (ℂⁿ⁺¹ \ {0}) / ~,  where  z ~ w ⟺ z = λw for λ ∈ ℂ \ {0}

 Important cases:

   • ℂP¹ = Riemann sphere = ℂ ∪ {∞}
     This is the compactification of the complex plane.

   • ℂPⁿ — compact Kähler manifold
     Central object of algebraic geometry

 Connection to physics:
   State space of a system with n+1 levels = ℂPⁿ
   Bloch sphere (qubit) = ℂP¹ ≅ S²

-------------------------------------------------------------------------------
 Projective Spaces as Equivalence Classes
-------------------------------------------------------------------------------

 This is another example of construction via quotient:

   X = ℝⁿ⁺¹ \ {0}  (all nonzero vectors)
   x ~ y ⟺ x = λy  (lie on the same ray)
   ℝPⁿ = X/~       (set of classes = set of rays = set of lines)

 Each equivalence class is a line through the origin
 (without the origin itself). We have "collapsed" each line into one point.


On manifolds we can define functions, vector fields, tensors.
But how to integrate? The ordinary integral ∫f dx requires coordinates, but we want
an invariant definition.

-------------------------------------------------------------------------------
 Tensor Field — a Tensor at Each Point
-------------------------------------------------------------------------------

 We studied tensors as algebraic objects on a single vector
 space. But on a manifold, at each point there is its own tangent
 space TₚM. How to "glue together" tensors from different points?

 A tensor field is a choice of tensor at each point of the manifold,
 varying smoothly from point to point.

 +-----------------+-----------------------------------------------+
 | EXAMPLE         | WHAT IT IS                                    |
 +-----------------+-----------------------------------------------+
 | Scalar field    | Function f: M → ℝ (temperature at each point) |
 | Vector field    | Vector v(p) ∈ TₚM at each point (velocity)    |
 | Metric gᵢⱼ      | Scalar product at each TₚM                    |
 | Curvature tensor| Measures "curvature" at each point            |
 +-----------------+-----------------------------------------------+

 In terms of "object—observer": a tensor field is an object on
 the manifold. In each chart (observer's coordinate system) it
 is written in components gᵢⱼ(x). Under change of chart, components transform
 by the tensor transformation law — but the field itself remains the same.

 The metric gᵢⱼ — main example: it defines distances and angles, but its
 components depend on the choice of coordinates. Distance is an invariant.


Differential forms are objects that can be integrated on
manifolds. They unify all integration theorems (Green's, Stokes',
Gauss') into one — and this is the language of modern physics.

-------------------------------------------------------------------------------
Differential Forms — Language of Modern Physics
-------------------------------------------------------------------------------

 Forms as a View of Space


 Differential forms are objects that "measure" pieces of space:

   • 1-form measures curves (work of a force along a path)
   • 2-form measures surfaces (flux through an area)
   • 3-form measures volumes (mass in a region)

 Forms are "dimension detectors": a k-form senses k-dimensional objects.
 They allow integration on manifolds without coordinates.


 Why Differential Forms Are Needed


 Problem: Integrals depend on what we are integrating

   • Along a curve we integrate work:      ∫ F·dr  — this is something one-dimensional
   • Over a surface — flux:                ∬ F·dS  — this is something two-dimensional
   • Over a volume — density:              ∭ ρ dV  — this is something three-dimensional

 Task: formalize the notion of "oriented area"

 Answer: differential forms — objects created for integration

   • 0-form — function (integral = value at a point)
   • 1-form — integrated over curves
   • 2-form — integrated over surfaces
   • n-form — integrated over n-dimensional regions

 Bonus: Stokes' theorem, Green's theorem, Gauss' theorem — all become one theorem.

-------------------------------------------------------------------------------
What a k-form measures — physical table
-------------------------------------------------------------------------------

 A k-form is a "detector" for k-dimensional objects in space.

 +---------+----------------+----------------------+--------------------------+
 | k       | WHAT IT MEASURES | PHYSICAL EXAMPLE    | MATHEMATICALLY           |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 0-form  | point          | Temperature T(x,y,z) | Simply a function f: M → ℝ |
 |         | (scalar at it) | Pressure p(x,y,z)    |                          |
 |         |                | Concentration c      |                          |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 1-form  | curve          | Work of force ∫F·dr  | ω = Fₓdx + Fᵧdy + F_zdz  |
 |         | (integral      | Circulation          | Acts on tangent          |
 |         | along path)    | Voltage ∫E·dl        | vector to curve          |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 2-form  | surface        | Flux ∬F·dS           | ω = Fₓdy∧dz + Fᵧdz∧dx    |
 |         | (integral      | Magnetic flux Φ      | + F_zdx∧dy               |
 |         | over area)     | Fluid flow rate Q    | Acts on pair             |
 |         |                |                      | of tangent vectors       |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+
 |         |                |                      |                          |
 | 3-form  | volume         | Mass ∭ρ dV           | ω = ρ dx∧dy∧dz           |
 |         | (integral      | Charge Q = ∭ρ dV     | In 3D this is maximal    |
 |         | over region)   | Energy in volume     | dimension of form        |
 |         |                |                      |                          |
 +---------+----------------+----------------------+--------------------------+

 Mnemonic: a k-form "eats" k vectors and outputs a number.

   0-form: f()           — eats nothing, immediately a number
   1-form: ω(v)          — eats 1 vector
   2-form: σ(u,v)        — eats 2 vectors
   3-form: μ(u,v,w)      — eats 3 vectors


 Visualization: what a k-form "looks like"


 0-form (function): Scalar field — color/height at each point

       high
          ↑   ████
          | ██████████
          |████████████████
       low

   Temperature map: to each point — a number.

-------------------------------------------------------------------------------

 1-form: "Stacks of planes" — level lines with direction

       | | | | | |
       | | | | | |   ← intersection with vector = "how many lines crossed"
       | | |→| | |
       | | | | | |

   1-form dx "counts" how many times a vector crossed lines x = const.
   Denser lines = larger value of form.

-------------------------------------------------------------------------------

 2-form: "Tubes" — measure flux through area

       | | | | |
       | | | | |   ← area perpendicular to tubes = max. value
       | +===+ |      area along tubes = zero value
       | |   | |
       | +===+ |
       | | | | |

   2-form dx∧dy "counts" how many tubes pass through area.
   Orientation of area matters (sign).

-------------------------------------------------------------------------------

 3-form: "Density of points" — how many in volume

       +---------+
       | ● ● ● ● |
       | ● ● ● ● |   ← integral over volume = total quantity
       | ● ● ● ● |
       +---------+

   3-form ρ dx∧dy∧dz = density. Integral = mass/charge/energy.


 Exterior derivative d — transition between levels


 The operator d raises the degree of a form by 1:

   0-form  --d--▶  1-form  --d--▶  2-form  --d--▶  3-form  --d--▶  0
   function        gradient         curl            divergence
      f               df              dω               dσ

 Physical meaning:

 +----------+---------------------------------------------+
 | TRANSITION | WHAT IT MEANS PHYSICALLY                 |
 +----------+---------------------------------------------+
 | df (0→1) | How f changes along path = gradient        |
 |          | df(v) = ∇f · v = directional derivative    |
 +----------+---------------------------------------------+
 | dω (1→2) | "Curledness" of field = curl               |
 |          | Nonzero dω = field has vortices            |
 +----------+---------------------------------------------+
 | dσ (2→3) | "Sources" of field = divergence            |
 |          | Nonzero dσ = there are sources/sinks       |
 +----------+---------------------------------------------+

 Magical property: d ∘ d = 0

   Applying d twice, we get 0. This is a deep fact:
     • rot(grad f) = 0  — gradient has no vortices
     • div(rot F) = 0   — vortex has no sources
     • ∂²M = ∅          — boundary of boundary is empty


-------------------------------------------------------------------------------
Differential as a 1-Form
-------------------------------------------------------------------------------

 Rethinking the Differential


 In analysis: df = f'(x)dx — "infinitesimal increment"

 New view: df is a linear function on tangent vectors.

   df: TₚM → ℝ
   df(v) = "derivative of f in direction v" = ∇f · v

 Example: f(x,y) = x² + y², point p = (1, 2)

   df = 2x dx + 2y dy
   At point p: df = 2dx + 4dy

   Vector v = (3, 1) at point p:
   df(v) = 2·3 + 4·1 = 10

   This is the derivative of f in direction v: ∇f·v = (2,4)·(3,1) = 10 ✓

 Conclusion: dx, dy are not "small quantities", but basis 1-forms.

-------------------------------------------------------------------------------
 Definition: 1-Form
-------------------------------------------------------------------------------

 A 1-form on manifold M is a smooth mapping

   ω: TM → ℝ

 which is linear on each tangent space TₚM.

 In coordinates:
   ω = ω₁dx¹ + ω₂dx² + ... + ωₙdxⁿ = ωᵢdxⁱ

 where ωᵢ = ωᵢ(x¹,...,xⁿ) — smooth functions (components of the form).

 Action on a vector:
   ω(v) = ωᵢvⁱ = ω₁v¹ + ω₂v² + ... + ωₙvⁿ


 1-form = covector = element of T*ₚM


 Connection with previous sections:

   • (Lin. algebra): covector ∈ V* — linear function on V
   • (Tensors): 1-form — tensor of type (0,1)
   • (Duality): 1-form is dual to a vector

 At each point p ∈ M:
   ωₚ ∈ T*ₚM  (cotangent space)

 1-form on M = smooth family of covectors {ωₚ}ₚ∈M
              = section of cotangent bundle T*M


 Df ≠ ∇f : iron-clad argument via dimensions


 Let f = temperature in degrees, x = coordinate in meters.

 +-------------------+-------------+----------------------+
 | OBJECT            | DIMENSION   | TYPE                 |
 +-------------------+-------------+----------------------+
 | f                 | [°C]        | Scalar (function)    |
 +-------------------+-------------+----------------------+
 | df                | [°C]        | 1-form (covector)    |
 | (differential)    |             |                      |
 +-------------------+-------------+----------------------+
 | ∂f/∂x             | [°C/m]      | Gradient component   |
 | (partial deriv.)  |             |                      |
 +-------------------+-------------+----------------------+
 | ∇f                | [°C/m]      | Vector (with metric) |
 | (gradient)        |             |                      |
 +-------------------+-------------+----------------------+

 Evident: df and ∇f have different dimensions.

 df: acts on displacement vector [m], gives temperature change [°C].
 ∇f: itself has dimension [°C/m], indicates direction of growth.

 Connection via metric: (∇f)ⁱ = gⁱʲ(∂f/∂xʲ)
   In Cartesian: gⁱʲ = δⁱʲ, therefore ∇f "looks like" (∂f/∂x, ∂f/∂y).
   In curvilinear: metric is nontrivial, and confusing them is forbidden.


 Bridge: dx in calculus vs dx in forms


 An engineer is accustomed to dx as "infinitesimal increment" from Riemann integral:
   ∫f(x)dx = lim Σf(xᵢ)Δxᵢ

 Here we say: dx is a linear functional.
 How is this connected?

 +----------------------+-----------------------------------------+
 | CONTEXT              | What is dx                              |
 +----------------------+-----------------------------------------+
 | Calculus (intuition) | "Infinitesimal piece" of x-axis         |
 |                      | Δx → 0 in the limit                     |
 +----------------------+-----------------------------------------+
 | Diff. forms (precise)| Linear function dx: TₚM → ℝ             |
 |                      | dx(v) = v¹ (projection onto x-axis)     |
 +----------------------+-----------------------------------------+
 | Integration of forms | ∫_γ ω = lim Σ ω(Δγᵢ)                    |
 |                      | Form acts on tangents to the curve      |
 +----------------------+-----------------------------------------+

 Key to understanding:

   In the integral ∫f(x)dx the 1-form f(x)dx is "hidden", which is integrated
   along a curve (segment). The old notation is a simplification, hiding
   that a linear function on tangent vectors is being integrated.

   When we write ∫f(x)dx, we are actually pairing the form f(x)dx
   with the tangent vector to the integration curve. This is not "sum of
   infinitesimals", but a limit of sums of form values on small vectors.

   ∫ₐᵇ f(x)dx   (calculus)   =   ∫_[a,b] f·dx   (forms)

   The left notation is a special case of the right for a curve in ℝ¹.

 Practical conclusion:
   • In 1D: almost no difference, can use familiar notation
   • In nD: form dx∧dy — area, dV = dx∧dy∧dz — volume
   • On manifolds: without forms one cannot correctly define an integral


-------------------------------------------------------------------------------
Exterior Product — Key Operation
-------------------------------------------------------------------------------

 Definition: exterior (wedge) product


 For 1-forms α and β their exterior product α ∧ β is a 2-form:

   (α ∧ β)(u, v) = α(u)β(v) − α(v)β(u)

-------------------------------------------------------------------------------
Why exactly this formula?
-------------------------------------------------------------------------------

 Suppose α and β are "measuring devices" for vector components:
   • α(u) = "how much of vector u in direction α"
   • β(v) = "how much of vector v in direction β"

 The product α(u)β(v) is the "area of a rectangle" with sides α(u), β(v)
 But a rectangle is not the correct measure for the area of a parallelogram.

 To obtain the oriented area of the parallelogram on u and v:
   • Take α(u)β(v) — one order of measurements
   • Subtract α(v)β(u) — the other order
   • Get the 2×2 determinant = oriented area.

 Formula = determinant:

   (α ∧ β)(u, v) = det|α(u)  α(v)|
                      |β(u)  β(v)|

 Properties:
   • Bilinearity: (aα + bβ) ∧ γ = a(α∧γ) + b(β∧γ)
   • Antisymmetry: α ∧ β = −β ∧ α
   • Consequence: α ∧ α = 0
   • Associativity: (α ∧ β) ∧ γ = α ∧ (β ∧ γ)


 Example: dx ∧ dy


 Let u = (u¹, u²), v = (v¹, v²) — vectors in ℝ².

   (dx ∧ dy)(u, v) = dx(u)·dy(v) − dx(v)·dy(u)
                   = u¹v² − v¹u²
                   = det|u¹ v¹|
                        |u² v²|

 dx ∧ dy computes the area of the parallelogram spanned by u and v.

 Sign = orientation (positive or negative)

-------------------------------------------------------------------------------
 k-forms
-------------------------------------------------------------------------------

 A k-form is an antisymmetric tensor of type (0, k).

 In coordinates on ℝⁿ:

   ω = Σ ω_{i₁...iₖ} dx^{i₁} ∧ ... ∧ dx^{iₖ}
       i₁<...<iₖ

 Dimension of the space of k-forms on ℝⁿ:

   dim Ωᵏ(ℝⁿ) = C(n,k) = n!/(k!(n-k)!)

 Table for n = 3:

   +-------+------------------------+-----+
   | k     | BASIS                  | dim |
   +-------+------------------------+-----+
   | 0     | 1 (functions)          | 1   |
   | 1     | dx, dy, dz             | 3   |
   | 2     | dy∧dz, dz∧dx, dx∧dy    | 3   |
   | 3     | dx∧dy∧dz               | 1   |
   | >3 | 0 (no nonzero forms)   | 0   |
   +-------+------------------------+-----+

 Note: dim Ωᵏ = dim Ωⁿ⁻ᵏ — symmetry. (related to Hodge ∗)


 Concrete example: gas dynamics — three types of integrals


 In gas dynamics, three types of "infinitesimals" constantly appear:

   • dx, dl — element of length along the flow (1-form)
   • dω, dA, dS — element of cross-sectional area (2-form)
   • dV — element of volume (3-form)

 These are not simply "small quantities" — they are objects of different nature.

-------------------------------------------------------------------------------
 Example 1: work of pressure force (1-form, line integral)
-------------------------------------------------------------------------------

   A piston moves in a cylinder. Work = ∫ F·dl = ∫ p·A·dl

   Here dl is the path element (1-form). We integrate along the trajectory.
   Result: scalar (number of joules).

-------------------------------------------------------------------------------
 Example 2: mass flow rate through a cross-section (2-form, surface integral)
-------------------------------------------------------------------------------

   Gas flows through a pipe. Flow rate = ∬ ρv·dA = ∬ ρvₙ dω

   Here dω (or dA) is the area element (2-form).
   We integrate over the cross-section of the pipe.
   Result: kg/s (mass flow rate).

   Important: dω = dy∧dz — this is not a number, but a 2-form.
   It "eats" two vectors and outputs an oriented area.

-------------------------------------------------------------------------------
 Example 3: mass of gas in a volume (3-form, volume integral)
-------------------------------------------------------------------------------

   Mass of gas in a reservoir: m = ∭ ρ dV

   Here dV = dx∧dy∧dz is the volume element (3-form).
   We integrate over the entire reservoir.
   Result: kg (mass).

-------------------------------------------------------------------------------
 Stokes' theorem in gas dynamics: continuity equation
-------------------------------------------------------------------------------

   Integral form: ∂/∂t ∭_V ρ dV + ∬_S ρv·dA = 0

   "Change of mass in volume = mass flux through boundary"

   Transition to differential form (via Gauss–Ostrogradsky theorem):

   ∂ρ/∂t + ∇·(ρv) = 0

   Or in the language of forms: ∂(ρ·dV)/∂t + d(ρv ⌟ dV) = 0
   where ⌟ is the interior product (contraction of a vector with the
   volume n-form). Equivalently, via the codifferential δ = ±∗d∗:
   ∂ρ/∂t + δ(ρv) = 0 with the appropriate sign.


 Conclusion: When you see an integral, ask yourself:
   • Over what are we integrating? (line / surface / volume)
   • What form is under the integral? (1-form / 2-form / 3-form)

 dx, dA, dV — these are not "just small quantities", but objects of different types.


-------------------------------------------------------------------------------
Exterior derivative d
-------------------------------------------------------------------------------

 Definition: exterior derivative


 The exterior derivative d: Ωᵏ → Ωᵏ⁺¹ is defined:

 For a 0-form (function) f:
   df = (∂f/∂x¹)dx¹ + ... + (∂f/∂xⁿ)dxⁿ = (∂f/∂xⁱ)dxⁱ

 For a k-form ω = ω_{i₁...iₖ} dx^{i₁} ∧ ... ∧ dx^{iₖ}:
   dω = dω_{i₁...iₖ} ∧ dx^{i₁} ∧ ... ∧ dx^{iₖ}

 Properties:
   • d(α + β) = dα + dβ                 (linearity)
   • d(α ∧ β) = dα ∧ β + (−1)ᵏα ∧ dβ   (Leibniz rule)
   • d(dω) = 0                          (key property)


 Examples of the exterior derivative


 Example 1: d of function f(x,y,z)

     df = (∂f/∂x)dx + (∂f/∂y)dy + (∂f/∂z)dz

     This is the differential of f — a covector (1-form).
     Not to be confused with the gradient ∇f, which is a vector.
     (Components coincide numerically only in an orthonormal basis)

 Example 2: d of 1-form ω = P dx + Q dy + R dz

   dω = dP ∧ dx + dQ ∧ dy + dR ∧ dz

      = (∂P/∂y dy + ∂P/∂z dz) ∧ dx + ...

      = (∂R/∂y − ∂Q/∂z) dy∧dz + (∂P/∂z − ∂R/∂x) dz∧dx
        + (∂Q/∂x − ∂P/∂y) dx∧dy

   This is the curl rot(P,Q,R), written as a 2-form.

 Example 3: d of 2-form η = A dy∧dz + B dz∧dx + C dx∧dy

   dη = (∂A/∂x + ∂B/∂y + ∂C/∂z) dx∧dy∧dz

   This is the divergence div(A,B,C), written as a 3-form.


 Unifying table: vector analysis as forms
+------------------+------------------+---------------------------+
| CLASSICAL        | FORMS            | RELATION                  |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| f (scalar)       | f (0-form)       | identical                 |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| ∇f (gradient)    | df (1-form)      | components coincide       |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| F (vector field) | ω = Fᵢdxⁱ (1-f.) | via metric: ωᵢ = gᵢⱼFʲ    |
|                  | or               |                           |
|                  | η = ∗ω (2-form)  | via Hodge ∗               |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| rot F            | dω (2-form)      | d(1-form) = 2-form        |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| div F            | d∗ω (3-form)     | d(2-form) = 3-form        |
|                  |                  | or ∗d∗ω (function)        |
|                  |                  |                           |
+------------------+------------------+---------------------------+
|                  |                  |                           |
| rot(∇f) = 0      | d(df) = 0        | d² = 0                    |
| div(rot F) = 0   | d(dω) = 0        | d² = 0                    |
|                  |                  |                           |
+------------------+------------------+---------------------------+

 A.t.2 property d² = 0 — realizations in different areas
+------------------+---------------------+-----------------------------+
| AREA             | OPERATOR            | IDENTITY                    |
+------------------+---------------------+-----------------------------+
| Vector analysis  | ∇, rot, div         | rot(grad f)=0, div(rot F)=0 |
| Diff. forms      | d: Ωᵏ → Ωᵏ⁺¹        | d(dω) = 0                   |
| Homology         | ∂: Cₖ → Cₖ₋₁         | ∂(∂c) = 0                   |
| Cohomology       | δ: Cᵏ → Cᵏ⁺¹        | δ(δf) = 0                   |
| Complex analysis | ∂̄ (Dolbeault)       | ∂̄² = 0                      |
| Homol. algebra   | d (chain complex)   | dₖ₊₁ ∘ dₖ = 0                |
+------------------+---------------------+-----------------------------+

 Consequence: Hᵏ = ker(d)/Im(d) — cohomology
 • Closed forms ker(d) / Exact forms Im(d) = topological invariant

-------------------------------------------------------------------------------
Stokes' Theorem — one theorem instead of three
-------------------------------------------------------------------------------

 Generalized Stokes' Theorem

                     +--------------------------+
                     |                          |
                     | ∫   dω  =  ∫   ω         |
                     | M         ∂M             |
                     |                          |
                     | integral      integral   |
                     | over domain   over boundary |
                     |                          |
                     +--------------------------+

 Let M — oriented manifold with boundary ∂M,
      ω — differential (n−1)-form on M.

 Then integral of derivative over domain = integral of form over boundary.


 Special cases — all classical theorems = one
+----------+----------------------+-----------------------------------+
| dim M    | NAME                 | FORMULA                           |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 1        | Newton–Leibniz       | ∫ₐᵇ df = f(b) − f(a)              |
| segment  | (fund. thm. calculus)|                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 2        | Green                | ∮_{∂D} Pdx+Qdy = ∬(∂Q/∂x−∂P/∂y)dA |
| domain   |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 2        | Classical Stokes     | ∮_{∂S} F·dr = ∬_S rot F·dS        |
| surface  |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+
|          |                      |                                   |
| 3        | Gauss–Ostrogradsky   | ∬_{∂V} F·dS = ∭_V div F dV        |
| solid    |                      |                                   |
|          |                      |                                   |
+----------+----------------------+-----------------------------------+

 All this — one theorem: ∫_M dω = ∫_{∂M} ω


   ∬_{∂V} F·dS = ∭_V div F dV

   This is the Gauss–Ostrogradsky theorem.


 Meaning: boundary of boundary is empty


 From d² = 0 and Stokes' theorem it follows:

   ∫_{∂∂M} ω = ∫_{∂M} dω = ∫_M d²ω = 0

 Therefore ∂∂M = ∅ (boundary of boundary is empty)!

 Geometric intuition:

   dim 1:    ●━━━━━━━━━━●          Segment
             ↓          ↓
             ●          ●          Boundary = 2 points
             ↓          ↓
             ∅          ∅          Boundary of point = ∅

   dim 2:    +----------+          Disk
             | ╭------╮ |
             | |      | | ---▶     ╭------╮  Boundary = circle
             | ╰------╯ |          ╰------╯
             +----------+                ↓
                                        ∅   Boundary of circle = ∅

   dim 3:       +----+
               /    /|              Cube
              +----+ |                   ↓
              |    |/              6 faces (surface)
              +----+                     ↓
                                        ∅   Boundary of closed surface = ∅

 Formula: ∂² = 0  ⟷  d² = 0  (dual statements)


 Orientation consistency — source of 50% sign errors


 Stokes' theorem ∫_M dω = ∫_{∂M} ω works only with consistent
 orientation of M and its boundary ∂M. Without this — sign error.

-------------------------------------------------------------------------------
 Rule: how orientation is induced on boundary
-------------------------------------------------------------------------------

 dim 1 → dim 0 (segment → points):

   Segment [a, b] is oriented "left to right".
   Boundary: point a with "−", point b with "+".

        −●━━━━━━━━━━━━━━━━━━●+
         a                   b

   Therefore: ∫_a^b df = f(b) − f(a)  (not f(a) − f(b).)

-------------------------------------------------------------------------------

 Dim 2 → dim 1 (surface → contour): "right-hand rule"

   Surface oriented by normal n (chose "up").
   Boundary traversed so that n points "left" of motion.

          n ↑
            |    +------------+
            |    |            |
                 |    ---→    |  ← direction of traversal ∂M
                 |            |
                 +------------+

   Mnemonic: Stand on surface, head along normal → boundary on left.

-------------------------------------------------------------------------------

 Dim 3 → dim 2 (volume → surface): "outward normal"

   Volume V oriented standardly (dx∧dy∧dz).
   Boundary ∂V oriented by outward normal.

              +---------+
             /|        /|
            / |  →n   / |   ← normal outward
           +---------+  |
           |  |      |  |
           |  +------|--+
           | /       | /
           |/        |/
           +---------+

   Gauss' theorem: ∬_{∂V} F·dS = ∭_V div F dV
   dS = n dS, where n — outward normal.

-------------------------------------------------------------------------------
Practical advice:

   If you got the "wrong" sign — check:
   1. Where is the normal to the surface directed?
   2. In which direction is the contour traversed?
   3. Are they coordinated by the "corkscrew rule"?


-------------------------------------------------------------------------------
Maxwell's Equations in the Language of Forms
-------------------------------------------------------------------------------

 Electromagnetic Tensor as a 2-Form


 Electric field E and magnetic field B are unified into a 2-form F:

   F = Eₓ dx∧dt + Eᵧ dy∧dt + E_z dz∧dt
     + Bₓ dy∧dz + Bᵧ dz∧dx + B_z dx∧dy

 In matrix form (tensor Fμν):

        ⎛  0   -Eₓ  -Eᵧ  -E_z ⎞
   F =  ⎜ Eₓ    0    B_z  -Bᵧ ⎟
        ⎜ Eᵧ  -B_z   0    Bₓ  ⎟
        ⎝ E_z  Bᵧ   -Bₓ   0   ⎠

-------------------------------------------------------------------------------
 Maxwell's Equations
-------------------------------------------------------------------------------

 Classical form (4 equations):

   div E = ρ/ε₀           rot E = −∂B/∂t
   div B = 0              rot B = μ₀J + μ₀ε₀ ∂E/∂t


 In the language of forms (2 equations):

   +-------------------------------------------------------------+
   |                                                             |
   | dF = 0         (homogeneous: div B = 0, rot E = −∂B/∂t)     |
   |                                                             |
   | d∗F = J        (inhomogeneous: div E = ρ, rot B = J + ∂E/∂t)|
   |                                                             |
   +-------------------------------------------------------------+

 where:
   F — electromagnetic 2-form
   ∗F — its Hodge dual 2-form
   J — current 3-form (current + charge density)

 Beauty:
   • dF = 0 automatically follows from F = dA (potential)
   • d(d∗F) = 0 gives charge conservation: dJ = 0
   • Lorentz invariance is obvious (no separation of E and B)


-------------------------------------------------------------------------------
de Rham Cohomology — Topology Through Forms
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Closed and Exact Forms
-------------------------------------------------------------------------------

 A form ω is called:

   Closed:  dω = 0
   Exact:   ω = dη for some η

 From d² = 0 it follows: exact ⇒ closed

   d(dη) = 0 ✓

 Question: Is the converse true? Is every closed form exact?

 Answer: not always. This depends on the topology of the manifold.

-------------------------------------------------------------------------------
 de Rham Cohomology
-------------------------------------------------------------------------------

   H^k_{dR}(M) = {closed k-forms} / {exact k-forms}

              = Ker(d: Ωᵏ → Ωᵏ⁺¹) / Im(d: Ωᵏ⁻¹ → Ωᵏ)

 The dimension of H^k(M) is called the k-th Betti number: bₖ = dim H^k(M)

 de Rham Theorem:
   H^k_{dR}(M) ≅ H^k(M; ℝ)  (de Rham cohomology = singular cohomology)

 This is a bridge between analysis (forms) and topology (holes)!

-------------------------------------------------------------------------------
 Examples
-------------------------------------------------------------------------------

 ℝⁿ:  H⁰ = ℝ, Hᵏ = 0 for k > 0
      Every closed form is exact (space is "trivial")

 S¹:  H⁰ = ℝ, H¹ = ℝ
      The form dθ is closed but not exact.
      ∮ dθ = 2π ≠ 0 (integral over cycle is nonzero)
      This "feels" the hole in the circle

 T² (torus): H⁰ = ℝ, H¹ = ℝ², H² = ℝ
      Two independent 1-forms (two independent cycles)

 S²:  H⁰ = ℝ, H¹ = 0, H² = ℝ
      No 1-dimensional holes, there is a 2-dimensional "shell"

-------------------------------------------------------------------------------
 Homology vs Cohomology — Duality Intuition
-------------------------------------------------------------------------------

 Both theories "count holes", but from different sides:

 Homology Hₖ:
   • Objects: cycles (k-dimensional "contours" without boundary)
   • Question: "Which cycles are not boundaries?"
   • Geometric objects: curves, surfaces, ...

   Example: On a torus there are two cycles (around the hole and through the hole),
           which cannot be "filled" by a surface inside the torus.
           ⇒ H₁(T²) = ℤ × ℤ

 Cohomology Hᵏ:
   • Objects: forms (functions on cycles)
   • Question: "Which forms are closed but not exact?"
   • Functional objects: measure cycles

   Example: The form dθ on a circle is closed but not exact.
           It "measures" how many times a cycle goes around the hole.
           ⇒ H¹(S¹) = ℝ

 Analogy:
 +-------------------------------------------------------------------+
 |                                                                   |
 | homology — these are "holes" (geometric objects)                  |
 | cohomology — these are "hole measurers" (functions on holes)      |
 |                                                                   |
 | Like vector and covector: one is an object, the other is a function on an object |
 |                                                                   |
 +-------------------------------------------------------------------+

 Connection (duality):

   Hᵏ(M; ℝ) ≅ Hom(Hₖ(M), ℝ)  (cohomology = functionals on homology)

   Pairing: ⟨[ω], [c]⟩ = ∫_c ω
               (integral of form over cycle)

 Why two theories:
   • Homology is simpler for geometric intuition
   • Cohomology has multiplication (ring structure)
   • de Rham cohomology is related to analysis (differential forms)


-------------------------------------------------------------------------------
Summary and Connections
-------------------------------------------------------------------------------

 Main Ideas of the Section


 1. Differential forms = "objects for integration"
    k-form is integrated over k-dimensional surfaces

 2. Exterior product ∧ = antisymmetrization
    α ∧ β = −β ∧ α, α ∧ α = 0

 3. Exterior derivative d generalizes grad, rot, div
    d² = 0 — key property

 4. Stokes' theorem unifies N-L, Green, Stokes, Gauss
    ∫_M dω = ∫_{∂M} ω

 5. de Rham cohomology connects analysis and topology
    Closed/exact forms "sense" holes in space


 Connection Graph


   (Lin.alg)        (Tensors)        (Manifolds)
        |               |                   |
        |   covectors   | antisymm.tensors  |  TₚM, T*ₚM
        +---------------+-------------------+
                        |
                        ▼
                   ▶ (Forms) ◀
                        |
        +---------------+---------------+
        ▼               ▼               ▼
   (Topology)       Physics          Analysis
   cohomology      Maxwell         integrals
                    GTR theor. Stokes


Until now we have been building structures on continuous spaces: topology,
linearity, smoothness, forms. But mathematics also works with discrete
objects — finite sets, graphs, logical statements.

The next two sections — about discrete structures. They are no less
fundamental: order lies at the foundation of logic and set theory,
graphs describe networks and algorithms.

-------------------------------------------------------------------------------
Order and Lattices — Three Faces of One Structure
-------------------------------------------------------------------------------

Key table "Logic = Sets = Order":

 Partial Order — Foundation


 A relation ≤ is called a partial order if:

   • a ≤ a                    (reflexivity)
   • a ≤ b and b ≤ a ⇒ a = b   (antisymmetry)
   • a ≤ b and b ≤ c ⇒ a ≤ c   (transitivity)

 "Partial" = not all elements are comparable
 Example: sets {1} and {2} are incomparable under ⊆


 Order Everywhere — Examples
+-------------------------+-------------------------+-------------------------+
| SET                     | ORDER ≤                 | WHERE IT APPEARS        |
+-------------------------+-------------------------+-------------------------+
| Numbers ℝ               | Usual ≤                 | Analysis                |
| Subsets 2^X             | Inclusion ⊆             | Logic, topology         |
| Natural numbers ℕ       | Divisibility a|b        | Number theory           |
| Words                   | Prefix                  | Computer science        |
| Data types              | Inheritance             | OOP                     |
| Open sets               | Inclusion ⊆             | Topology                |
| Subspaces               | Inclusion ⊆             | Linear algebra          |
| Subgroups               | Inclusion ⊆             | Group theory            |
+-------------------------+-------------------------+-------------------------+

 Lattice — Order with Operations


 Lattice = partial order where any two elements have:
   a ∨ b = sup{a, b}  (least upper bound)
   a ∧ b = inf{a, b}  (greatest lower bound)

 Example: Subsets {a,b,c}             Example: Divisors of 12

         {a,b,c}                                 12
        /   |   \                              / |  \
    {a,b} {a,c} {b,c}                        4   6   ← LCM
       \ X     X /                            \ / \ /
       {a}  {b}  {c}                           2   3
          \ | /                                 \ /
            ∅                                    1   ← GCD

   {a}∨{b} = {a,b}                           2∨3 = LCM(2,3) = 6
   {a}∧{b} = ∅                               2∧3 = GCD(2,3) = 1


 Boolean Algebra = Lattice with Complement


 Additional requirement: for each a there exists ¬a such that
   a ∨ ¬a = 1   and   a ∧ ¬a = 0

 Divisors of 12 — lattice, but not Boolean. (no complement for 2, 3, 4, 6)
 Subsets — Boolean algebra (complement always exists)

-------------------------------------------------------------------------------
 Connection with Topology
-------------------------------------------------------------------------------

 Open sets of a topology form a lattice (but not a Boolean algebra)

   • U₁ ∨ U₂ = U₁ ∪ U₂           (union of open sets — open)
   • U₁ ∧ U₂ = U₁ ∩ U₂           (intersection of open sets — open)
   • BUT: complement of open — closed, not open.

 This leads to intuitionistic logic (without law of excluded middle)

   +----------------+------------------+-----------------------------+
   | CLASSICAL      | INTUITIONISTIC   | EXAMPLE                     |
   +----------------+------------------+-----------------------------+
   | P ∨ ¬P = ⊤     | Not always.      | "x is rational or not" —    |
   | (always true)  |                  | need to constructively show |
   +----------------+------------------+-----------------------------+

-------------------------------------------------------------------------------
Applied example: launching a technological line
-------------------------------------------------------------------------------

 Problem: Boiler room. Need to start equipment in the correct order.
 Some operations can be done in parallel, some — strictly afterwards.

 Partial order of operations:

   Open gas supply (a)
          |
          +-------------------+
          |                   |
          ▼                   ▼
   Turn on smoke exhauster (b)    Turn on fan (c)
          |                   |
          +-------+-----------+
                  |
                  ▼
   Burner ignition (d)     ← only after b and c.
          |
          ▼
   Enter operating mode (e)

 This is a partial order:
   • a ≤ b, a ≤ c      (gas — before smoke exhauster and fan)
   • b ≤ d, c ≤ d      (smoke exhauster and fan — before ignition)
   • d ≤ e             (ignition — before entering operating mode)
   • but: b and c are incomparable (can be in any order)

 Operations on the lattice:

   • b ∧ c = a      (GLB — greatest operation that is before both)
   • b ∨ c = d      (LUB — least operation that is after both)

 Practical meaning:
   b ∨ c = d means: "d — first operation that can be done
   only after completion of both b and c"

 Application: Gantt chart = visualization of partial order in time.
 Critical path = longest chain in the partial order.

-------------------------------------------------------------------------------
 Place in the overall picture
-------------------------------------------------------------------------------

 Graph = visualization of relation

 Relation R ⊆ A×A — abstract concept
 Graph — its picture: vertices = elements, edge = pair in relation

 Since relations — foundation of mathematics, graphs are everywhere.


 One object — many representations
+------------------------+-------------------+--------------------+
| RELATION               | GRAPH             | MATRIX             |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| R ⊆ V × V              | G = (V, E)        | A: Aᵢⱼ ∈ {0,1}     |
| (set of pairs)         | (picture)         | (table of numbers) |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| (a,b) ∈ R              | Edge a--b         | Aₐᵦ = 1            |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| R symmetric            | Undirected        | A = Aᵀ             |
| (a,b)∈R ⇒ (b,a)∈R      |                   |                    |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| Path from a to b       | Chain of edges    | (Aⁿ)ₐᵦ > 0      |
| in n steps             |                   | (number of paths)  |
|                        |                   |                    |
+------------------------+-------------------+--------------------+
|                        |                   |                    |
| Transitive closure     | "Reachability"    | (I+A)ⁿ or (I−A)⁻¹ |
|                        |                   |                    |
+------------------------+-------------------+--------------------+

 Graphs everywhere — examples
+-------------------------+-------------+------------------------+
| FIELD                   | VERTICES    | EDGES                  |
+-------------------------+-------------+------------------------+
| Social networks         | People      | "Friends"              |
| Internet                | Pages       | Links                  |
| Chemistry               | Atoms       | Bonds                  |
| City map                | Crossroads  | Streets                |
| Electrical circuit      | Nodes       | Conductors             |
| Finite automaton        | States      | Transitions            |
| Task ordering           | Tasks       | Dependencies           |
| Group (Cayley graph)    | Elements    | Multiplication by gen. |
| Simpl. complex (1-skel.)| Vertices    | 1-simplices            |
+-------------------------+-------------+------------------------+

-------------------------------------------------------------------------------
 Connection with linear algebra
-------------------------------------------------------------------------------

 Adjacency matrix A turns graph theory into linear algebra.

   • (Aⁿ)ᵢⱼ = number of paths of length n from i to j
   • Eigenvalues of A — spectrum of graph (invariant)
   • λ₁ (largest) is related to connectivity
   • Number of connected components = multiplicity of λ = 0 for Laplacian L = D − A

 Google PageRank = principal eigenvector of transition matrix.

-------------------------------------------------------------------------------
Connection with Topology
-------------------------------------------------------------------------------

 Euler characteristic:  χ = V − E + F

 For a planar graph (on a sphere): χ = 2
 For a graph on a torus: χ = 0

 This is the same invariant χ as in homology.
 A graph is the simplest "simplicial complex" (only 0- and 1-simplices)

   H₀(graph) = ℤᵏ, where k = number of connected components
   H₁(graph) = ℤᵐ, where m = number of independent cycles = E − V + k


 Types of graphs
+------------------------+----------------------------------------------------+
| TYPE                   | PROPERTY and VALUE                                 |
+------------------------+----------------------------------------------------+
| Connected              | ∃ path between any two vertices; H₀ = ℤ            |
| Tree                   | Connected + without cycles; |E| = |V|−1; H₁ = 0    |
| Complete Kₙ            | All connected; |E| = n(n−1)/2                      |
| Bipartite              | Vertices = 2 classes, edges between classes        |
| Planar                 | Embeddable in plane without crossings; χ = 2       |
| Cayley graph of group G| Encodes group structure; V=G, edges=generators     |
+------------------------+----------------------------------------------------+

 Applied example: hydraulic calculation of a heating network


 Problem: City heating network. Find flow rates and pressure losses.

           Source
              ●---------------●---------------●
              |       G₁₂    / \      G₂₃     |
           Q₀ |            /   \              | Consumer 1
              |          /       \            | q₁
              |        / G₁₄      \ G₃₄       |
              |      /             \          |
              ●---------------●---------------●
                      G₄₅            Consumer 2
                                     q₂

 Network graph:
   Vertices = nodes (sources, consumers, junctions)
   Edges = pipelines (with flow rate G and resistance S)

-------------------------------------------------------------------------------
 First Kirchhoff's law (mass conservation at nodes):
-------------------------------------------------------------------------------

   At each node: Σ Gᵢₙ = Σ Gₒᵤₜ

   This is homology. H₀ = 0 means: flow can "flow" through the network.

-------------------------------------------------------------------------------
 Second Kirchhoff's law (pressure conservation in loops):
-------------------------------------------------------------------------------

   In each closed loop: Σ Δpᵢ = 0

   Number of independent loops = β₁ = E − V + 1 (first Betti number).

-------------------------------------------------------------------------------
 Matrix form:
-------------------------------------------------------------------------------

   A · G = q        (A — incidence matrix "nodes × edges")
   B · Δp = 0       (B — loop matrix)
   Δp = S · G²      (quadratic resistance law)

   Total: nonlinear system, solved by Newton's method.

 Numerical example:
   Network with V=5, E=6 ⇒ β₁ = 6−5+1 = 2 independent loops
   loop equations + 4 node equations = 6 equations for 6 flow rates


 Conclusion: Hydraulics of networks is graph theory + linear algebra.
 Betti number β₁ = number of independent loops = dimension of H₁.


Order is a relation "greater/less" without the requirement of comparability of all pairs.
Graphs are another discrete structure: relation "connected/not connected".

Graphs are discrete spaces. On them work analogs of continuous
concepts: Laplacian, diffusion, homology. And they are everywhere: networks, algorithms, data.

===============================================================================
Graphs — discrete structures of connections
===============================================================================

 Graph as a discrete space


 A graph is a discrete analog of a space, where:

   • Vertices — "points" of the space
   • Edges — "neighborhood" (who is next to whom)
   • Path — "movement" from point to point
   • Distance = number of edges in the shortest path

 Many concepts of continuous mathematics have discrete analogs:

   Continuous           |   Discrete (on a graph)
   ---------------------+---------------------------
   Laplace operator ∇²  |   Graph Laplacian L = D − A
   Heat conduction      |   Diffusion on a graph: u' = −Lu
   Potential flow       |   Electrical circuit (Kirchhoff's laws)


 Graph as a structure


 Graph G = (V, E) is:
   • V — set of vertices (nodes)
   • E ⊆ V × V — set of edges (connections between vertices)

 Types of graphs:
   • Directed: edges have direction (a → b ≠ b → a)
   • Undirected: {a, b} = {b, a}
   • Weighted: each edge is assigned a weight w(e) ∈ ℝ

 Examples:
   • Social network: vertices = people, edges = acquaintances
   • Pipeline: vertices = nodes, edges = pipes, weights = resistances
   • Internet: vertices = servers, edges = communication channels

-------------------------------------------------------------------------------
Key Concepts
-------------------------------------------------------------------------------

 Path: sequence of vertices v₀ → v₁ → ... → vₙ, where (vᵢ, vᵢ₊₁) ∈ E
 Cycle: path where v₀ = vₙ (closed path)
 Connected graph: between any two vertices there exists a path
 Tree: connected graph without cycles

 +--------------------+---------------------------------------------------+
 | INVARIANT          | FORMULA / PROPERTY                                |
 +--------------------+---------------------------------------------------+
 | Number of vertices | |V| = n                                           |
 | Number of edges    | |E| = m                                           |
 | Number of components| k (connected pieces of graph)                    |
 | Euler characteristic| χ = n − m + k                                    |
 | Number of cycles   | β₁ = m − n + k (first Betti number)               |
 +--------------------+---------------------------------------------------+

 For a tree: m = n − 1 (minimum edges for connectivity), β₁ = 0

-------------------------------------------------------------------------------
 Connection with other areas
-------------------------------------------------------------------------------

 Topology          | Graph — 1-dimensional simplicial complex
                   | β₁ = rank(H₁) — topological invariant
 ------------------+---------------------------------------------------------
 Linear algebra    | Adjacency matrix, Laplacian, spectrum of graph
 ------------------+---------------------------------------------------------
 Lattices          | Hasse diagram — graph of partial order
 ------------------+---------------------------------------------------------
 Manifolds         | Discretization: mesh = graph on manifold

-------------------------------------------------------------------------------
 Adjacency matrix and Laplacian
-------------------------------------------------------------------------------

 Adjacency matrix a:
   Aᵢⱼ = 1 if there is an edge (i,j), otherwise 0

     1---2                   ⎛ 0 1 1 0 ⎞
     |   |         →    A =  ⎜ 1 0 0 1 ⎟
     3---4                   ⎜ 1 0 0 1 ⎟
                             ⎝ 0 1 1 0 ⎠

 Degree matrix d:
   Dᵢᵢ = deg(i) = number of edges from vertex i

 Graph Laplacian:
   L = D − A

 Properties of Laplacian:
   • L is symmetric, positive semidefinite
   • Eigenvalues: 0 = λ₁ ≤ λ₂ ≤ ... ≤ λₙ
   • Multiplicity of λ = 0 equals the number of connected components
   • λ₂ (algebraic connectivity) — measure of "how connected" the graph is

 Analogy with physics:
   Graph Laplacian — discrete analogue of Laplace operator ∇².
   Heat equation on graph: du/dt = −Lu

-------------------------------------------------------------------------------
 Why L ≈ ∇² (detailed explanation)
-------------------------------------------------------------------------------

 Continuous Laplacian on the line:
   (∇²f)(x) = f''(x) ≈ [f(x+h) − 2f(x) + f(x−h)] / h²

 Graph as discretization: vertices = points, edges = adjacency.

 Action of graph Laplacian on function f: V → ℝ (values at vertices):

   (Lf)(i) = Σⱼ~ᵢ [f(i) − f(j)] = deg(i)·f(i) − Σⱼ~ᵢ f(j)
             ↑
        sum over neighbors j of vertex i

 This is exactly the discrete version of ∇².
   • At a point: value minus average of neighbors
   • Measures "deviation from local average"
   • Harmonic function: Lf = 0 ⟺ at each point f = average of neighbors

 Heat equation:
   Continuous: ∂u/∂t = ∇²u    →    Discrete: du/dt = −Lu
   Heat flows from hot vertices to cold neighbors.

-------------------------------------------------------------------------------
 Spectral graph theory — linear algebra in action
-------------------------------------------------------------------------------

 Eigenvalues and eigenvectors of Laplacian L — these are "frequencies" and "modes"
 of network oscillations, analogous to resonant frequencies of a string or membrane.

 Spectrum of Laplacian:  0 = λ₁ ≤ λ₂ ≤ ... ≤ λₙ

 +--------------------+-------------------------------------------+
 | EIGENVALUE         | WHAT IT MEANS                             |
 +--------------------+-------------------------------------------+
 | λ₁ = 0             | Always eigenvector = (1,1,...,1)          |
 | Multiplicity λ = 0 | = number of connected components of graph |
 | λ₂ (Fiedler value) | Algebraic connectivity: the larger, the   |
 |                    | "stronger" the graph is connected (harder |
 |                    | to cut)                                   |
 | λₙ                 | Maximum "oscillation frequency" of network|
 +--------------------+-------------------------------------------+

 Fiedler vector:
   Eigenvector v₂ corresponding to λ₂.

   Magic: Signs of components of v₂ divide the graph into two parts.
   Vertices with v₂ᵢ > 0 — one group, with v₂ᵢ < 0 — another.
   This is optimal partitioning (minimizes number of edges between groups).

 Applications:
   • Spectral clustering: grouping vertices by eigenvectors
   • PageRank: principal eigenvector of transition matrix (Google)
   • Synchronization: connection of λ₂ with stability of synchronous regimes
   • Graph neural networks (GNN): convolution through spectrum of Laplacian

 This is pure magic of linear algebra in the discrete world.
 Local structure (edges) → global property (spectrum).

-------------------------------------------------------------------------------
Engineering Applications: Network Flows
-------------------------------------------------------------------------------

 Maximum Flow Problem:
   Given a network with source s and sink t.
   Edges have capacity c(e).
   Find maximum flow from s to t.

               [3]
           ┌──────→ a ──[2]──┐
          ╱                   ↘
        s                       t         Max flow = 2 + 3 = 5
          ╲                   ↗               ─────────────
           └──────→ b ──[3]──┘           (bottlenecks: a→t is 2,
               [4]                                    b→t is 3)

   Cut: {s} | {a, b, t}. Sum of capacities of cut edges:
   c(s→a) + c(s→b) = 3 + 4 = 7. But this is not the minimum cut.
   Minimum cut: {s,a,b} | {t}, sum = c(a→t) + c(b→t) = 2 + 3 = 5.

 Theorem (Ford–Fulkerson):
   Maximum flow = minimum cut

 Applications:
   • Pipeline networks (maximum throughput)
   • Transportation problems (optimal logistics)
   • Electrical networks (Kirchhoff's laws)

-------------------------------------------------------------------------------
 Kirchhoff's Laws as Graph Theory
-------------------------------------------------------------------------------

 Electrical circuit = weighted graph, where:
   • Vertices = circuit nodes
   • Edges = resistors/conductors
   • Weights = conductances g = 1/R

 Kirchhoff's First Law (nodal):
   Σ Iₖ = 0  at each node
   ↔ Current vector I ∈ ker(∂₁) — kernel of boundary operator.

 Kirchhoff's Second Law (loop):
   Σ Uₖ = 0  around any closed loop
   ↔ Voltage vector U ∈ im(∂₀*) — image of co-boundary operator.

 Ohm's Law:  I = GU  (G — conductance matrix)

 Result: Circuit solution = solution of system Lφ = I_ext
       where L — weighted Laplacian, φ — node potentials

 This is the same mathematics as heat conduction, diffusion, hydraulics.

-------------------------------------------------------------------------------
 Shortest Paths and Algorithms
-------------------------------------------------------------------------------

 Problem: Find shortest path between vertices in weighted graph.

 +----------------------+----------------+------------------------------+
 | ALGORITHM            | COMPLEXITY     | WHEN TO USE                  |
 +----------------------+----------------+------------------------------+
 | BFS (breadth-first)  | O(V + E)       | Unweighted graph             |
 | Dijkstra             | O(E + V log V) | Non-neg. weights, one source |
 | Bellman–Ford         | O(VE)          | Any weights, one source      |
 | Floyd–Warshall       | O(V³)          | All pairs, any weights       |
 +----------------------+----------------+------------------------------+

 Applications in engineering:
   • Routing in networks
   • Optimal pipeline routes
   • Project planning (CPM/PERT — task graph)


===============================================================================
Combinatorics — the Art of Counting
===============================================================================

Combinatorics answers the question "how many?": how many ways to choose,
arrange, partition objects. These formulas are needed everywhere: from probability theory
to quantum mechanics.

-------------------------------------------------------------------------------
 Combinatorics as a View of Space
-------------------------------------------------------------------------------

 Combinatorics studies finite discrete spaces.

 If topology asks "which points are close?", and metric — "how close?",
 then combinatorics asks: "how many points/paths/configurations?"

 This is zero-dimensional geometry: structure without continuity, only counting.


 Combinatorial objects = points in spaces

 +-------------------+------------------------------+--------------------+
 | OBJECT            | WHAT KIND OF SPACE IS THIS   | SIZE               |
 +-------------------+------------------------------+--------------------+
 | Permutation       | Set of all ordered           | n! points          |
 | of n elements     | arrangements = group Sₙ      |                    |
 +-------------------+------------------------------+--------------------+
 | k-subset          | Set of all selections of k   | C(n,k) points      |
 | from n elements   | from n = Grassmannian Gr(k,n)|                    |
 +-------------------+------------------------------+--------------------+
 | Path in graph     | Space of paths               | Counted by graph   |
 | from A to B       | (discrete manifold)          |                    |
 +-------------------+------------------------------+--------------------+
 | Partition of      | Set of ways to represent n   | p(n) points        |
 | number n          | as sum                       | (number partitions)|
 +-------------------+------------------------------+--------------------+

-------------------------------------------------------------------------------
 Connection to Other Structures
-------------------------------------------------------------------------------

 Groups:
   Set of permutations Sₙ is a group.
   • Operation: composition of permutations
   • Group order |Sₙ| = n!
   • Subgroups of Sₙ are symmetry groups of finite objects

 Linear algebra:
   Binomial coefficient C(n,k) = dimension of space.
   • Set of all k-subsets of {1,...,n} — basis
   • dim(space of k-forms on ℝⁿ) = C(n,k)
   • Pascal's triangle = dimensions of exterior powers

 Probability:
   Combinatorics — foundation of discrete probability.
   • P(event) = (favorable outcomes) / (all outcomes)
   • "All outcomes" are counted combinatorially

 Graphs:
   Number of paths in graph = combinatorics on discrete space
   • Adjacency matrix Aⁿ[i,j] = number of paths of length n from i to j

-------------------------------------------------------------------------------
Two basic principles
-------------------------------------------------------------------------------

 Addition principle:
   If a task can be performed by method A or method B (mutually exclusive),
   and A can be done in m ways, B — in n ways, then there are m + n ways total.

 Multiplication principle:
   If a task consists of step A and step B (sequential),
   and A can be done in m ways, B — in n ways, then there are m · n ways total.

 Pigeonhole principle (box principle):
   If n+1 objects are placed into n boxes, at least one box contains ≥ 2 objects.

   Application: Among 367 people there will be two with the same birthday.

-------------------------------------------------------------------------------
 Factorial
-------------------------------------------------------------------------------

 +----------------------------------------------------------------+
 | n! = n · (n−1) · (n−2) · ... · 2 · 1                           |
 |                                                                |
 | n! = number of ways to arrange n distinct objects in a row     |
 +----------------------------------------------------------------+

 Values:
   0! = 1 (by definition)
   1! = 1
   2! = 2
   3! = 6
   4! = 24
   5! = 120
   10! = 3 628 800
   20! ≈ 2.4 × 10¹⁸

 Stirling's formula (asymptotics for large n):
   n! ≈ √(2πn) · (n/e)ⁿ

   More precisely: n! = √(2πn) · (n/e)ⁿ · (1 + O(1/n))

-------------------------------------------------------------------------------
 Permutations, arrangements, combinations
-------------------------------------------------------------------------------

 +--------------+---------+------------+---------------------+
 |              | ORDER   | REPETITION | FORMULA             |
 |              | MATTERS?|            |                     |
 +--------------+---------+------------+---------------------+
 | Permutations | YES     | NO         | Pₙ = n!             |
 | (all n)      |         |            |                     |
 +--------------+---------+------------+---------------------+
 | Arrangements | YES     | NO         | Aₙᵏ = n!/(n−k)!     |
 | (k from n)   |         |            | = n(n−1)...(n−k+1)  |
 +--------------+---------+------------+---------------------+
 | Combinations | NO      | NO         | Cₙᵏ = n!/(k!(n−k)!) |
 | (k from n)   |         |            | = (n choose k)      |
 +--------------+---------+------------+---------------------+
 | Arrangements | YES     | YES        | nᵏ                  |
 | with repet.  |         |            |                     |
 +--------------+---------+------------+---------------------+
 | Combinations | NO      | YES        | C_{n+k-1}^k         |
 | with repet.  |         |            |                     |
 +--------------+---------+------------+---------------------+

 Examples:
   • How many ways to arrange 5 books on a shelf?  P₅ = 5! = 120
   • How many three-digit numbers from digits 1-9 without repetition?  A₉³ = 504
   • How many ways to choose 3 people from 10?  C₁₀³ = 120
   • How many three-letter words from alphabet {a,b,c}?  3³ = 27

-------------------------------------------------------------------------------
 Binomial coefficients
-------------------------------------------------------------------------------

 +------------------------------------------------------------------+
 | DEFINITION:                                                      |
 | ⎛n⎞     n!                                                       |
 | Cₙᵏ =    ⎜ ⎟ = --------  = "n choose k"                          |
 | ⎝k⎠   k!(n−k)!                                                   |
 |                                                                  |
 | = number of ways to choose k objects from n (order doesn't matter)|
 +------------------------------------------------------------------+

 Properties:
   Cₙ⁰ = Cₙⁿ = 1
   Cₙᵏ = Cₙⁿ⁻ᵏ         (symmetry)
   Cₙᵏ = Cₙ₋₁ᵏ⁻¹ + Cₙ₋₁ᵏ  (recurrence relation, Pascal's triangle)

 Pascal's triangle:
              1                         n=0
            1   1                       n=1
          1   2   1                     n=2
        1   3   3   1                   n=3
      1   4   6   4   1                n=4
    1   5  10  10   5   1              n=5

   Each number = sum of the two above it

-------------------------------------------------------------------------------
 Newton's binomial theorem
-------------------------------------------------------------------------------

 +----------------------------------------------+
 | n                                            |
 | (a + b)ⁿ = Σ  Cₙᵏ · aⁿ⁻ᵏ · bᵏ                |
 | k=0                                          |
 |                                              |
 | = Cₙ⁰aⁿ + Cₙ¹aⁿ⁻¹b + Cₙ²aⁿ⁻²b² + ... + Cₙⁿbⁿ |
 +----------------------------------------------+

 Special cases:
   (a+b)² = a² + 2ab + b²
   (a+b)³ = a³ + 3a²b + 3ab² + b³
   (1+x)ⁿ = 1 + nx + n(n−1)x²/2 + ...

 Corollaries (substituting specific a, b):
   a=b=1:  2ⁿ = Σ Cₙᵏ = Cₙ⁰ + Cₙ¹ + ... + Cₙⁿ
   a=1, b=−1:  0 = Σ(−1)ᵏCₙᵏ  (sum of evens = sum of odds)

-------------------------------------------------------------------------------
Inclusion-Exclusion Principle
-------------------------------------------------------------------------------

 For two sets:
   |A ∪ B| = |A| + |B| − |A ∩ B|

 For three sets:
   |A ∪ B ∪ C| = |A| + |B| + |C|
                  − |A∩B| − |A∩C| − |B∩C|
                  + |A∩B∩C|

 General formula for n sets:
   |A₁ ∪ ... ∪ Aₙ| = Σ|Aᵢ| − Σ|Aᵢ∩Aⱼ| + Σ|Aᵢ∩Aⱼ∩Aₖ| − ...

 Application: How many numbers from 1 to 100 are not divisible by 2, 3, or 5?
   |A₂∪A₃∪A₅| = 50+33+20 − 16−10−6 + 3 = 74
   Answer: 100 − 74 = 26

-------------------------------------------------------------------------------
 Why the formulas are exactly this way — geometric intuition
-------------------------------------------------------------------------------

 Factorial n! = volume of "discrete cube"

   Imagine n! as the number of vertices in the space of ordered sets.
   Each choice "first element, second, ..." — this is a path through a tree:

         ●----+----●----+----●----●
              |         |
              +----●    +----●
              |         |
              +----●    +----●

   At each level: n, then n-1, then n-2, ... variants.
   Total paths: n × (n-1) × ... × 1 = n!

 C(n,k) = "volume" of the space of unordered k-subsets

   Paths in ordered selection: n(n-1)...(n-k+1) = n!/(n-k)!
   But k! orderings give one subset.
   Therefore: C(n,k) = n! / (k!(n-k)!)

   This is the same pattern as in the subspace theorem:
   dim(V/W) = dim(V) - dim(W) — factorization by symmetry.


We examined discrete structures (order, graphs). Now — an important
supplement to continuous mathematics: complex numbers.

Why here? Complex numbers are not "yet another number system".
This is a place where algebra (multiplication) and geometry (rotations) coincide.
They are critical for analysis, which will come later.

===============================================================================
Complex numbers — algebra meets geometry
===============================================================================

-------------------------------------------------------------------------------
 Complex numbers as a view of space
-------------------------------------------------------------------------------

 ℂ — this is two-dimensional space ℝ² with additional structure:
 multiplication, which encodes rotations and dilations.

   As space: ℂ ≅ ℝ² (plane)
   As algebra:      ℂ has multiplication (ℝ² — does not)

 This makes ℂ unique: simultaneously geometry and algebra.

-------------------------------------------------------------------------------
 Main discovery
-------------------------------------------------------------------------------

 Complex numbers — this is a place where algebra and geometry merge.

   Algebra: numbers that can be added and multiplied
   Geometry: points of the plane and rotations

 Key fact: multiplication by eⁱᶿ = rotation by angle θ


 One object — three views
+-------------------------+-------------------------+-------------------------+
| ALGEBRA                 | GEOMETRY                | ANALYSIS                |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| z = a + bi              | Point (a, b)            | Pair of functions       |
| (a, b ∈ ℝ, i² = −1)     | on the plane            | Re(z), Im(z)            |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| z = |z|eⁱᶿ              | Polar coordinates       | eⁱᶿ = cos θ + i sin θ   |
| (polar form)            | (r, θ)                  | (Euler's formula)       |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| Multiplication by w     | Scaling                 | Linear                  |
| z ↦ wz                  | by |w| + rotation by θ_w| mapping ℝ² → ℝ²         |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+
|                         |                         |                         |
| |z| = 1                 | Unit circle             | Group U(1) ≅ SO(2)      |
| (numbers of form eⁱᶿ)   | S¹                      | (rotations of plane)    |
|                         |                         |                         |
+-------------------------+-------------------------+-------------------------+

 Group U(1) — key to everything


 Numbers with |z| = 1 form a group under multiplication:

   • Closure: |z₁| = |z₂| = 1 ⇒ |z₁z₂| = 1
   • Identity: e⁰ = 1
   • Inverse: (eⁱᶿ)⁻¹ = e⁻ⁱᶿ

 This is the group U(1) ≅ S¹ ≅ SO(2) ≅ ℝ/ℤ — all of them are the same:

   +----------------+--------------------------------------------------+
   | NOTATION       | HOW WE VIEW                                      |
   +----------------+--------------------------------------------------+
   | U(1)           | Unitary 1×1 matrices (= complex numbers |z|=1)   |
   | S¹             | Circle as topological space                      |
   | SO(2)          | Group of plane rotations                         |
   | ℝ/ℤ            | Real numbers modulo 1 (angles 0 ≡ 2π)            |
   +----------------+--------------------------------------------------+

 Connection to Fourier: basis eⁱⁿˣ = representations of group U(1).

-------------------------------------------------------------------------------
Euler's Formula — a Bridge Between Worlds
-------------------------------------------------------------------------------

                         eⁱᶿ = cos θ + i sin θ

 Special case (θ = π):   e^(iπ) + 1 = 0    (Euler's identity)

 Connects: e (analysis), i (algebra), π (geometry), 1 and 0 (arithmetic)

 Proof (Taylor series):

   eⁱˣ = Σ (ix)ⁿ/n! = Σ iⁿxⁿ/n!
       = (1 − x²/2! + x⁴/4! − ...) + i(x − x³/3! + x⁵/5! − ...)
       = cos x + i sin x

-------------------------------------------------------------------------------
 Why ℂ "completes" algebra
-------------------------------------------------------------------------------

 Fundamental theorem of algebra:
   Any polynomial of degree n has exactly n roots in ℂ (counting multiplicity)

 This means: in ℂ any algebraic equation is solvable.
 No need to extend numbers further (for solving equations).

 Connection to I-bis: ℂ — "end of the path" ℕ → ℤ → ℚ → ℝ → ℂ

-------------------------------------------------------------------------------
 Formulas (for calculations)
-------------------------------------------------------------------------------

 Multiplication: z₁z₂ = |z₁||z₂| eⁱ⁽ᶿ¹⁺ᶿ²⁾   (moduli ×, angles +)

 Power:   zⁿ = |z|ⁿ eⁱⁿᶿ              (de Moivre's formula)

 Roots:     ⁿ√z = ⁿ√|z| · eⁱ⁽ᶿ⁺²ᵖᵏ⁾/ⁿ,  k = 0,1,...,n−1  (n roots)

 Trig. identities:  cos θ = (eⁱᶿ + e⁻ⁱᶿ)/2,  sin θ = (eⁱᶿ − e⁻ⁱᶿ)/(2i)

-------------------------------------------------------------------------------
 Concrete example: damped temperature oscillations
-------------------------------------------------------------------------------

 Problem: Building wall. Outside temperature oscillates (day/night).
 How do oscillations propagate into the wall?

 Heat conduction equation:

   ∂T/∂t = a · ∂²T/∂x²     (a — thermal diffusivity coefficient)

 Boundary condition (outside):  T(0,t) = T₀ + ΔT·cos(ωt)
                               (daily oscillations with period 24 hours)

 Solution through complex numbers:

   Seek T(x,t) = Re[T̃(x)·eⁱʷᵗ]  — complex amplitude T̃

   Substitute: iω·T̃ = a·d²T̃/dx²

   Characteristic equation: λ² = iω/a

   Solution: λ = ±(1+i)√(ω/2a) = ±(1+i)/δ

   Where δ = √(2a/ω) — penetration depth of temperature wave

 Physical meaning:

   T(x,t) = T₀ + ΔT·e^(−x/δ)·cos(ωt − x/δ)
                    ↑              ↑
              damping       phase shift

   • Oscillation amplitude decays with depth as e^(−x/δ)
   • Phase lags: maximum inside occurs later than outside

 Numerical example:
   Brick wall: a ≈ 0.5×10⁻⁶ m²/s
   Daily oscillations: ω = 2π/(24·3600) ≈ 7.3×10⁻⁵ rad/s
   Penetration depth: δ = √(2·0.5×10⁻⁶/7.3×10⁻⁵) ≈ 0.12 m

   At depth 30 cm: amplitude drops by factor of e^(0.3/0.12) ≈ 12.

 Moral: Complex numbers are not "imaginary". They naturally
 arise when solving equations with oscillations and damping.

-------------------------------------------------------------------------------
 Where it leads
-------------------------------------------------------------------------------

 Quantum mechanics: states are complex, phase eⁱᶿ is physically important
   Wave function ψ(x) ∈ ℂ, probability = |ψ|²

 Electrical engineering: impedance Z = R + iX, phase relations

 Control theory: transfer functions, stability analysis

 Quaternions ℍ: generalization to 4D, three "imaginary units" i,j,k
   Rotations in 3D = SU(2) = unit quaternions


-------------------------------------------------------------------------------
Why categories are needed — motivation
-------------------------------------------------------------------------------

 Problem and solution


 Problem: In mathematics there are many similar constructions

   • Group homomorphism, ring homomorphism, continuous map.
   • Product of sets, direct product of groups, product of topol.
   • Kernel of homomorphism, kernel of linear operator.

 Goal: extract common pattern from special cases

 Answer: category theory — a language for describing "structure of structures"

 Slogan: "Mathematics is what remains when you forget the specifics"


===============================================================================
Definition of category
===============================================================================

-------------------------------------------------------------------------------
 Definition: category
-------------------------------------------------------------------------------

 Category C consists of:

 1. Objects: class Ob(C)
    (sets, groups, topological spaces, ...)

 2. Morphisms: for each pair of objects A, B — set Hom(A, B)
    (functions, homomorphisms, continuous maps, ...)

 3. Composition: for f: A → B and g: B → C defined g∘f: A → C

 Axioms:
   (C1) Associativity: (h∘g)∘f = h∘(g∘f)
   (C2) Identity: for each A there exists id_A: A → A such that
        f∘id_A = f and id_B∘f = f for any f: A → B


 Equality "=" vs isomorphism "≅" — critical distinction


 In category theory this distinction is fundamental:

 Equality (=): Objects literally coincide, it's one object.
 Isomorphism (≅): Objects are "structured identically", but they are different objects.

 Examples:
   • V ≅ V** (isomorphism), but V ≠ V** (different sets)
     Canonical isomorphism exists, but it's not equality.

   • ℝ² ≅ ℂ as vector spaces, but ℝ² ≠ ℂ
     (ℂ has multiplication, ℝ² — doesn't)

   • All singleton sets are isomorphic, but {0} ≠ {1}

 In this atlas we sometimes write "=" where a mathematician would write "≅".
 This is a conscious simplification for readability, but remember:

   Isomorphism means "can be identified without loss of information"
   Equality means "it's literally the same thing"

-------------------------------------------------------------------------------
Visualization
-------------------------------------------------------------------------------

   Category is a directed graph with composition:

          f           g
     A ------► B ------► C
      ╲                 ╱
       ╲               ╱
        ╲    g∘f     ╱
         ╲---------╱

   • Objects = vertices
   • Morphisms = arrows
   • Composition = gluing of paths
   • At each vertex there is a loop id


===============================================================================
Examples of categories
===============================================================================

 Basic categories
+-----------+---------------------+-------------------------+
| CATEGORY  | OBJECTS             | MORPHISMS               |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Set       | Sets                | Functions               |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Grp       | Groups              | Group homomorphisms     |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Ab        | Abelian groups      | Group homomorphisms     |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Ring      | Rings               | Ring homomorphisms      |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Vect_k    | Vector spaces       | Linear maps             |
|           | over field k        |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Top       | Topological         | Continuous maps         |
|           | spaces              |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Man       | Smooth              | Smooth maps             |
|           | manifolds           |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| Pos       | Partially           | Monotone functions      |
|           | ordered sets        |                         |
|           |                     |                         |
+-----------+---------------------+-------------------------+
|           |                     |                         |
| hTop      | Topological         | Homotopy classes        |
|           | spaces              | of maps                 |
|           |                     |                         |
+-----------+---------------------+-------------------------+

-------------------------------------------------------------------------------
 "Small" categories
-------------------------------------------------------------------------------

 Category from one object = monoid

   • One object ●
   • Morphisms ● → ● = elements of monoid
   • Composition = multiplication in monoid
   • id = unit of monoid

   If all morphisms are invertible → group

 Category from partial order:

   • Objects = elements of set
   • Hom(a,b) = {unique arrow}, if a ≤ b, otherwise ∅
   • Composition: a ≤ b ≤ c ⇒ a ≤ c (transitivity)

-------------------------------------------------------------------------------
 Universal constructions: product in different categories
-------------------------------------------------------------------------------

 "Product A × B" is defined identically in all categories:

   Object P with projections π₁: P → A and π₂: P → B such that
   for any Q with arrows f: Q → A and g: Q → B there exists
   unique arrow h: Q → P with π₁∘h = f and π₂∘h = g.

                       Q
                     ╱ | ╲
                 f ╱   |h  ╲ g
                  ╱    |    ╲
                 ↓     ↓     ↓
                A ←-- P ---→ B
                    π₁   π₂

 What this gives in concrete cases:

 +---------------+-------------------------------------------+
 | CATEGORY      | What is A × B                             |
 +---------------+-------------------------------------------+
 | Set           | Cartesian product {(a,b) : a∈A, b∈B}      |
 | Grp           | Direct product of groups                  |
 | Top           | Product with product topology             |
 | Vect          | Direct sum V ⊕ W                          |
 | Sets with ≤   | Componentwise order (a₁,b₁)≤(a₂,b₂)       |
 +---------------+-------------------------------------------+

 Conclusion: One definition → many realizations.
 Categorical language reveals common structure of different constructions.


===============================================================================
Functors — mappings between categories
===============================================================================

-------------------------------------------------------------------------------
 Key idea
-------------------------------------------------------------------------------

   "To see analogies between analogies means to be able to map
    mappings between different categories"

   A functor is precisely this: a way to transfer structure from one
   area of mathematics to another, preserving connections between objects.

-------------------------------------------------------------------------------
 Definition: functor
-------------------------------------------------------------------------------

 Everyday analogy: A functor is a translator between languages of mathematics.

   Imagine: there is a book in Russian (category C) and its translation to
   English (category D). A good translation (functor F):
   • Associates to each word/concept a word/concept: A ↦ F(A)
   • To each connection between concepts — a connection: (A→B) ↦ (F(A)→F(B))
   • Preserves logic: if A→B→C, then F(A)→F(B)→F(C)

   Example: π₁ — a "translator" from the language of topology to the language of algebra.
   Associates to a topological space a group,
   to a continuous map — a group homomorphism.


 A functor F: C → D between categories C and D consists of:

 1. A mapping of objects: A ↦ F(A)
 2. A mapping of morphisms: f ↦ F(f), where if f: A → B, then F(f): F(A) → F(B)

 Axioms:
   (F1) F(g∘f) = F(g)∘F(f)     (preserves composition)
   (F2) F(id_A) = id_{F(A)}    (preserves identity)

 Visualization:

     C                               D
     f                               F(f)
   A --► B         F         F(A) ---► F(B)
          ╲       --►              ╲
       g   ╲                   F(g) ╲
            ▼                        ▼
            C                       F(C)

   A functor is a "translator" between categories,
   preserving structure (arrows and their composition).


 Examples of functors

+--------------------+----------------+---------------------------------------+
| TYPE               | FUNCTOR        | WHAT IT DOES                          |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| forgetful          | Grp → Set      | Group ↦ set (forgot operation)        |
| (lose structure)   | Vect → Set     | Space ↦ set of vectors                |
|                    | Top → Set      | Space ↦ set of points                 |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| free               | Set → Grp      | X ↦ free group F(X)                   |
| (add structure)    | Set → Vect     | X ↦ space with basis X                |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| topological        | π₁: Top → Grp  | Space ↦ fundamental group             |
| invariants         | Hₙ: Top → Ab   | Space ↦ n-homology                    |
|                    | χ: Top → ℤ     | Space ↦ Euler characteristic          |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+
|                    |                |                                       |
| algebraic          | *: Vect → Vect | V ↦ V* (dual)                         |
|                    | T: Man → VBund | M ↦ TM (tangent bundle)               |
|                    |                |                                       |
+--------------------+----------------+---------------------------------------+

 Covariant vs contravariant

+--------------------+--------------------------------------------------------+
| COVARIANT          | f: A→B  gives  F(f): F(A)→F(B)   (arrow same way)      |
+--------------------+--------------------------------------------------------+
| CONTRAVARIANT      | f: A→B  gives  F(f): F(B)→F(A)   (arrow reversed)      |
| Example: V ↦ V*    | T: V→W  gives  T*: W*→V*        (reversed)            |
+--------------------+--------------------------------------------------------+

===============================================================================
Natural transformations
===============================================================================

-------------------------------------------------------------------------------
 Definition: natural transformation
-------------------------------------------------------------------------------

 Let F, G: C → D be two functors. A natural transformation η: F ⇒ G
 is a family of morphisms {η_A: F(A) → G(A)}_{A ∈ Ob(C)}, such that
 for any f: A → B the diagram commutes:

        η_A
   F(A) ----► G(A)
     |         |
 F(f)|         |G(f)
     ▼         ▼
   F(B) ----► G(B)
        η_B

 That is: G(f) ∘ η_A = η_B ∘ F(f)

 Clarification:
   A natural transformation is a "morphism between functors",
   which is compatible with all morphisms in the source category.

-------------------------------------------------------------------------------
Example: Double Dual
-------------------------------------------------------------------------------

 Functors Id, **: Vect → Vect
   Id(V) = V
   **(V) = V**

 Natural transformation η: Id ⇒ **
   η_V: V → V**
   η_V(v)(φ) = φ(v)

 Naturality:
   For any T: V → W the diagram commutes:

        η_V
     V ----► V**
     |        |
   T |        | T**
     ▼        ▼
     W ----► W**
        η_W

 This is the canonical isomorphism V ≅ V** (does not require choice of basis)


===============================================================================
Universal Properties
===============================================================================

-------------------------------------------------------------------------------
 Idea of Universal Property
-------------------------------------------------------------------------------

 Many constructions in mathematics are defined not by an explicit formula,
 but by a property: "the unique object with such-and-such property".

 This is the universal property.

 Advantage: The definition works the same way in all categories.

-------------------------------------------------------------------------------
 Product (universal definition)
-------------------------------------------------------------------------------

 The product of objects A and B is an object A×B with projections π₁, π₂:

                    π₁        π₂
              A ◄---- A×B ----► B

 such that for any X with maps f: X→A, g: X→B
 there exists a unique h: X → A×B with π₁∘h = f, π₂∘h = g:

                       X
                    f╱   ╲g
                   ╱  h   ╲
                  ╱   |    ╲
                 ▼    ▼     ▼
              A ◄-- A×B --► B

 Examples:
   Set: A×B = Cartesian product
   Grp: A×B = direct product of groups
   Top: A×B = product with product topology
   Vect: A×B = direct sum A⊕B

-------------------------------------------------------------------------------
 One definition — all these constructions.
-------------------------------------------------------------------------------

 Table of universal constructions
+------------------+-------------------------------------------------+
| CONSTRUCTION     | UNIVERSAL PROPERTY                              |
+------------------+-------------------------------------------------+
|                  |                                                 |
| Product A×B      | Pair of projections factorizing any pair of     |
|                  | arrows                                          |
|                  |                                                 |
| Coproduct        | Pair of injections factorizing any pair of      |
| A⊔B (sum)        | arrows (dual to product)                        |
|                  |                                                 |
| Terminal         | Unique arrow from any object                    |
| object 1         | (singleton set, trivial group)                  |
|                  |                                                 |
| Initial          | Unique arrow to any object                      |
| object 0         | (empty set, trivial group)                      |
|                  |                                                 |
| Kernel f         | Equalizer of f and 0                            |
|                  |                                                 |
| Cokernel f       | Coequalizer of f and 0                          |
|                  |                                                 |
| Pullback         | "Product over an object"                        |
|                  |                                                 |
| Pushout          | "Coproduct under an object"                     |
|                  |                                                 |
| Limit            | Generalization of product to diagrams           |
|                  |                                                 |
| Colimit          | Generalization of sum to diagrams               |
|                  |                                                 |
+------------------+-------------------------------------------------+


  Universal constructions in different categories

 One definition via universal property has different realizations:

+----------------+------------+------------+------------+----------------------+
| CONSTRUCTION   | Set        | Grp        | Vect       | Top                  |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Product        | A×B        | G×H        | V⊕W        | X×Y with product     |
| (A,B)→A×B      | (Cartesian)| (direct)   | (direct ⊕) | topology             |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Coproduct      | A⊔B        | G*H        | V⊕W        | X⊔Y with sum         |
| (sum)          | (disjoint) | (free)     | (same)     | topology             |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Terminal       | {*}        | {e}        | {0}        | {*}                  |
| object         | (singleton)| (trivial)  | (zero)     | (point)              |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+
|                |            |            |            |                      |
| Initial        | ∅          | {e}        | {0}        | ∅                   |
| object         | (empty)    | (trivial)  | (zero)     | (empty)              |
|                |            |            |            |                      |
+----------------+------------+------------+------------+----------------------+

 Remark: In Vect product = coproduct = ⊕ (abelian category)
         In Grp they are different: ×≠* (direct ≠ free)

-------------------------------------------------------------------------------
Definition: adjunction
-------------------------------------------------------------------------------

 Functors F: C → D and G: D → C are called adjoint (F ⊣ G), if
 there exists a natural isomorphism:

   Hom_D(F(A), B) ≅ Hom_C(A, G(B))

 F — left adjoint, G — right adjoint.

-------------------------------------------------------------------------------
 Examples of adjoint functors
-------------------------------------------------------------------------------

 Free ⊣ forgetful:

   F: Set → Grp (free group)
   U: Grp → Set (forgetful functor)

   Hom_Grp(F(X), G) ≅ Hom_Set(X, U(G))

   "A homomorphism from the free group F(X) to G
    is determined by a map of the set X to G"

 Tensor ⊣ hom:

   − ⊗ B: Vect → Vect
   Hom(B, −): Vect → Vect

   Hom(A ⊗ B, C) ≅ Hom(A, Hom(B, C))

   This is currying from functional programming.

   Programming analogy:
     A function of two arguments f(a, b) → c
     is equivalent to a function returning a function: a → (b → c)

   In Haskell: curry :: ((a, b) -> c) -> (a -> (b -> c))
              uncurry :: (a -> (b -> c)) -> ((a, b) -> c)

   This is not just a coincidence — this is the same universal principle,
   which in mathematics is called adjunction of functors.


-------------------------------------------------------------------------------
Summary
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
 Hierarchy of categorical mathematics
-------------------------------------------------------------------------------

   Level 0:  Objects (sets, groups, spaces)
                   |
   Level 1:  Morphisms between objects (functions, homomorphisms)
                   |
   Level 2:  Functors between categories
                   |
   Level 3:  Natural transformations between functors
                   |
   Level 4:  Modifications between nat. transformations (2-categories)
                   |
       .      (∞-categories, homotopy type theory)

-------------------------------------------------------------------------------
 Why this is needed — practical applications
-------------------------------------------------------------------------------

 Mathematics:
   • Unification: one proof works in all categories
   • Homological algebra: Ext, Tor functors
   • Algebraic geometry: sheaves, schemes
   • Topos theory: generalization of set theory

 Programming:
   • Functional programming: functors, monads
   • Type theory: Curry–Howard–Lambek correspondence
   • Haskell, Scala: categorical constructions in the language

 Physics:
   • TQFT: functors from the category of cobordisms
   • Quantum gravity: spin foams, ∞-categories

 Logic:
   • Proofs = morphisms
   • Types = objects
   • Equivalence = isomorphism


===============================================================================
Algebraic geometry — a bridge between algebra and geometry
===============================================================================

Algebraic geometry — one of the central areas of modern mathematics.
It studies geometric objects defined by algebraic equations.

 Main idea: duality geometry ↔ algebra

 +-----------------------+-----------------------------------+
 | GEOMETRY              | ALGEBRA                           |
 +-----------------------+-----------------------------------+
 | Set of points X       | Ring of functions on X            |
 |                       | (or ideal of equations defining X)|
 +-----------------------+-----------------------------------+
 | Point p ∈ X           | Maximal ideal m_p ⊂ k[X]          |
 +-----------------------+-----------------------------------+
 | Subvariety Y ⊂ X      | Ideal I(Y) ⊂ k[X]                 |
 +-----------------------+-----------------------------------+
 | Map X → Y             | Ring homomorphism k[Y] → k[X]     |
 |                       | (in the OPPOSITE direction)       |
 +-----------------------+-----------------------------------+
 | X irreducible         | I(X) — prime ideal                |
 | (one piece)           |                                   |
 +-----------------------+-----------------------------------+

 This is like a dictionary between two languages — to each geometric
 notion corresponds an algebraic one, and vice versa.


 Examples of algebraic varieties

 +------------------+------------------+----------------------------+
 | EQUATION         | GEOMETRY         | PROPERTIES                 |
 +------------------+------------------+----------------------------+
 | x² + y² = 1      | Circle           | Genus 0, rational curve    |
 +------------------+------------------+----------------------------+
 | y² = x³ + ax + b | Elliptic         | Genus 1, group of points.  |
 |                  | curve            | Cryptography (ECDSA)       |
 +------------------+------------------+----------------------------+
 | x² + y² + z² = 1 | Sphere S²        | Quadric, rational surface  |
 +------------------+------------------+----------------------------+
 | xy = 1           | Hyperbola        | Two components in ℝ,       |
 |                  |                  | one in ℂ                   |
 +------------------+------------------+----------------------------+
 | y² = x³          | Curve with cusp  | Singular at (0,0)          |
 |                  | (cuspidal curve) |                            |
 +------------------+------------------+----------------------------+


 Hilbert's Nullstellensatz (theorem on zeros)


 This is the foundation of algebraic geometry — the connection between ideals and points.

 Let k — algebraically closed field (for example, ℂ).

 +------------------------------------------------+
 | THEOREM: For ideal I ⊂ k[x₁,...,xₙ]            |
 |                                                |
 | I(V(I)) = √I                                   |
 |                                                |
 | where V(I) = {points vanishing all f ∈ I}      |
 | I(X) = {polynomials vanishing on X}            |
 | √I  = {f : fⁿ ∈ I for some n}  (radical)       |
 +------------------------------------------------+

 Corollary: Maximal ideals in k[x₁,...,xₙ] ↔ points of kⁿ
   Ideal m = (x₁ − a₁, ..., xₙ − aₙ) corresponds to point (a₁,...,aₙ)

-------------------------------------------------------------------------------
Categorical View: Schemes
-------------------------------------------------------------------------------

 Classical variety = points + structure.
 Scheme (Grothendieck) = space + structural sheaf of rings.

 +------------------+--------------------------------+
 | CLASSICAL        | SCHEMES                        |
 +------------------+--------------------------------+
 | Points = solutions| Points = prime ideals (Spec)  |
 | over k           | (including "generic points".)  |
 +------------------+--------------------------------+
 | Only over a field| Over any ring (ℤ, 𝔽ₚ, ...)     |
 +------------------+--------------------------------+
 | Reduced          | Nilpotents preserve            |
 | (x² = 0 ⇒ x = 0) | "infinitesimal" information    |
 +------------------+--------------------------------+
 | Contravariant    | Category AffSch ≃ CRingᵒᵖ      |
 | functor          | (affine schemes = ringsᵒᵖ)     |
 +------------------+--------------------------------+

 Why schemes:
   • Work uniformly over ℚ, ℝ, ℂ, 𝔽ₚ, ℤ
   • Number theory: equation x² + y² = 1 over ℤ — this is a scheme
   • Moduli: parametrize families of objects


 Connection to Other Fields

 +--------------------+-------------------------------------------------+
 | FIELD              | CONNECTION TO AG                                |
 +--------------------+-------------------------------------------------+
 | Rings              | Ring of functions = "algebra of geometry"       |
 |                    | Ideals = subvarieties                           |
 +--------------------+-------------------------------------------------+
 | Topology           | Zariski topology: closed = V(I)                 |
 |                    | Coarser than Euclidean, but algebraically natural|
 +--------------------+-------------------------------------------------+
 | Categories         | Sheaves, cohomology, functors                   |
 |                    | Schemes = contravariant functors                |
 +--------------------+-------------------------------------------------+
 | Number theory (5.4)| Diophantine equations = rational points         |
 |                    | Curves over 𝔽ₚ, Weil conjecture                 |
 +--------------------+-------------------------------------------------+
 | Complex analysis   | Algebraic curves = Riemann surfaces             |
 |                    | Genus = topological invariant                   |
 +--------------------+-------------------------------------------------+

-------------------------------------------------------------------------------
Table of Categories
-------------------------------------------------------------------------------

 Category = (Objects, Morphisms, Composition)
 Task: define criterion of "sameness" of objects

+-----------+-----------------+------------------+------------------------+
| CATEGORY  | OBJECTS         | MORPHISMS        | "SAME" =               |
+-----------+-----------------+------------------+------------------------+
| Set       | Sets            | Functions        | Bijection (equinumerous)|
| Grp       | Groups          | Homomorphisms    | Group isomorphism      |
| Ab        | Abelian groups  | Homomorphisms    | Isomorphism            |
| Ring      | Rings           | Ring hom.        | Ring isomorphism       |
| Vect_K    | Vect. sp. / K   | Lin. maps        | Isomorphism (dim equal)|
| Top       | Topol. sp.      | Continuous       | Homeomorphism          |
| Man       | Manifolds       | Smooth           | Diffeomorphism         |
| Met       | Metric sp.      | Continuous       | Isometry               |
| Pos       | Partial orders  | Monotone         | Order isomorphism      |
+-----------+-----------------+------------------+------------------------+

+-----------+---------------------------------------------------------------+
| CATEGORY  | FEATURE                                                       |
+-----------+---------------------------------------------------------------+
| 0         | Empty: no objects, no morphisms                               |
| 1         | One object *, only identity morphism                          |
| 2         | Two objects 0 → 1, one nontrivial arrow                       |
| BG        | Group G as category: one object, morphisms = elements of G    |
| Cat       | Category of categories: objects = categories, morphisms = functors|
+-----------+---------------------------------------------------------------+

-------------------------------------------------------------------------------
          Conclusion of Part II: Unity of Structures
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Hierarchy of Structures — Main Table with Examples and History
-------------------------------------------------------------------------------

This table shows mathematics as a hierarchy of levels of abstraction.
Each level builds on the previous one.

Horizontal = level of abstraction (bottom to top — from emptiness to physics)
Vertical = type of structure (what information we preserve)

+----------+-----------------+-----------------+-----------------+-----------------+
| LEVEL    |  DISCRETE       |  ALGEBRAIC      |  TOPOLOGICAL    |  ANALYTIC       |
|          |  (sets)         |  (operations)   |  (closeness)    |  (change)       |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 0  |   EMPTINESS ∅   |                 |                 |                 |
| Source   | "Universe is    |                 |                 |                 |
| ~XIII BC |  emptiness"     |                 |                 |                 |
| (philos.)|                 |                 |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 1  |  BOUNDARIES/FORMS|                |                 |                 |
| Choice   | "Drawing        |   (operations   |  (closeness     |  (change        |
| prelang. |  boundaries"    |   will appear   |   will appear   |   will appear   |
|          | Pattern         |   later)        |   later)        |   later)        |
|          | manipulations   |                 |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 2  | SET THEORY      |  RELATIONS      |                 |                 |
| Categori-|  A, B, ∈, ⊆     |  R ⊆ A × B      |    (none yet)   |   (none yet)    |
| zation   |  ∪, ∩, ×, ∅     |  Equivalence    |                 |                 |
| ~1870    |  𝒫(A)           |  Order          |                 |                 |
| Cantor   |  Natural ℕ      |  Function f:A→B |                 |                 |
|          |  from ∅         |                 |                 |                 |
|          |                 |                 |                 |                 |
| Examples:| • ℕ,ℤ,ℚ,ℝ as    | • = (equality)  |                 |                 |
|          |   sets          | • < (order)     |                 |                 |
|          | • Boolean 𝒫(A)  | • f: A → B      |                 |                 |
|          |                 |   (functions)   |                 |                 |
|          |                 |                 |                 |                 |
| tasks:   | • Prove A⊆B     | • Prove that    |                 |                 |
|          | • |𝒫(A)| = 2^|A||   R transitive  |                 |                 |
|          | • Construct ℕ   | • Find f⁻¹(B)   |                 |                 |
|          |   from ∅        |                 |                 |                 |
|          |                 |                 |                 |                 |
| why:     | Basic language  | Describing links|                 |                 |
|          | for everything  | between objects |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 3  |  COMMUNICATION  |      LOGIC      |                 |                 |
| Language | Natural         |  ∀, ∃, ∧, ∨, ⇒  |   (notion of    |  (absent        |
| ~300 BC  | languages       |  Inference rules|   truth)        |   at this       |
|Aristotle | Symbols         |  Proofs         |                 |   level)        |
|          |                 |                 |                 |                 |
| Examples:| • Greek,        | • Syllogisms    |                 |                 |
|          |   Latin, ...    | • Modus ponens  |                 |                 |
|          |                 | • Predicate     |                 |                 |
|          |                 |   logic         |                 |                 |
|          |                 |                 |                 |                 |
| tasks:   | • Translation   | • Check         |                 |                 |
|          |   between       |   correctness   |                 |                 |
|          |   languages     |   of inference  |                 |                 |
|          |                 |                 |                 |                 |
| why:     | Knowledge       | Compensating    |                 |                 |
|          | transmission    | language losses |                 |                 |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 4  |   NUMBERS       |   GROUPS        |  METRIC         |   FUNCTIONS     |
| Basic    |  ℤ, ℚ, ℝ, ℂ     |   (G, ∗)        |  spaces         |   f: ℝ → ℝ      |
| structures| (from ℕ)       |   Subgroups     |   (X, d)        |   Continuous    |
| ~300 BC  |  +, ×, <        |   Isomorphism   |   Open sets     |   Differentiable|
| Euclid   |                 |                 |   Completeness  |                 |
| ~1830    |                 |   rings         |  ~1900 Fréchet  |  ~1670 Newton   |
| Galois   |                 |   (R, +, ×)     |                 |  ~1680 Leibniz  |
| ~1670    |                 |   FIELDS        |                 |                 |
| Newton   |                 |   (F, +, ×)     |                 |                 |
|          |                 |                 |                 |                 |
| Examples:| • ℤ (integers)  | • (ℤ, +)        | • ℝ with |x-y|  | • f(x) = x²     |
|          | • ℚ (rationals) | • (ℝ*, ×)       | • ℝⁿ with Euclid| • sin, cos, exp |
|          | • ℝ (reals)     | • S₃ (permutations)|metric        | • polynomials   |
|          | • ℂ (complex)   | • GL(n) (matrices)|• C[0,1] (functions)|           |
|          |                 |                 |                 |                 |
| tasks:   | • Solve         | • Find          | • Show          | • Find limit    |
|          |   equation      |   subgroups     |   completeness  | • Find          |
|          | • Prove         | • Check         | • Prove         |   derivative    |
|          |   irrationality |   isomorphism   |   convergence   | • Compute       |
|          |                 |                 |                 |   integral      |
|          |                 |                 |                 |                 |
| why:     | Computation,    | Symmetries,     | Notion of       | Modeling        |
|          | measurement     | cryptography    | distance        | processes       |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 5  |  GRAPHS         |  VECTOR         |  TOPOLOGICAL    |  MEASURES       |
| Complex  |   G = (V, E)    |  SPACES         |  SPACES         |   (X, 𝒜, μ)     |
| structures|  Trees         |   (V, +, ·)     |   (X, τ)        |   σ-algebra     |
| ~1730    |   Networks      |   Basis, dim    |   Compactness   |   Lebesgue      |
| Euler    |                 |   Norm ‖·‖      |   Connectedness |   integral      |
| ~1850    |  combinatorics  |                 |   Homeomorphism |                 |
| Cayley   |   Permutations  |  linear         |  ~1900 Hausdorff|  probability    |
| ~1880    |   Combinations  |  maps           |                 |   (Ω, ℱ, P)     |
| Grassmann|                 |   T: V → W      |                 |   Random var.   |
| ~1900    |                 |   Matrices      |                 |   E[X], Var[X]  |
| Lebesgue |                 |   ker, Im       |                 |                 |
|          |                 |   Eigenvalues   |                 |  ~1933 Kolmogorov|
|          |                 |                 |                 |                 |
| Examples:| • K₅ (complete) | • ℝⁿ            | • ℝ (standard top.)| • Lebesgue measure|
|          | • Tree          | • C[0,1] (functions)| • Circle S¹  | • Probability   |
|          | • Planar graph  | • L² (Hilbert)  | • Torus T²      |   measure       |
|          | • Road network  | • Matrices m×n  | • Cantor set    | • Counting measure|
|          |                 |                 |                 |                 |
| tasks:   | • Find          | • Find basis    | • Show          | • Compute       |
|          |   shortest      | • Check linear  |   compactness   |   measure       |
|          |   path          |   independence  | • Prove         | • Construct     |
|          | • Color         | • Solve linear  |   connectedness |   measurable    |
|          |   graph         |   system        | • Find          |   function      |
|          | • Find spanning | • Find eigen-   |   homeomorphism |                 |
|          |   tree          |   values        |                 |                 |
|          |                 |                 |                 |                 |
| why:     | Networks, links,| Linear          | "Shape" without | Generalization  |
|          | path            | algebra for     | distance,       | of integral,    |
|          | optimization    | everything      | deformations    | probability     |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+
|          |                 |                 |                 |                 |
| LEVEL 6  |     PHYSICS     |  LIE GROUPS     |  MANIFOLDS      |  FUNCTIONAL     |
| Applica- |  "Mathematics = |  Continuous     |   M (smooth)    |  spaces         |
| tion to  |   experimental  |  symmetries     |   TₚM (tangent) |   Cᵏ, Lᵖ        |
| world    |   physics"      |                 |   Riemannian    |   Banach        |
| ~1915    |                 |  ~1870 Lie      |   Curvature     |   Hilbert       |
| Einstein |  categories     |                 |  ~1850 Riemann  |                 |
| ~1930    |   Objects       |  ALGEBRAS       |                 |  OPERATORS      |
| categories|  Morphisms     |   over fields   |  bundles        |   Spectrum σ(T) |
| ~1920    |   Functors      |                 |   Connections   |   Adjoint       |
| Banach   |                 |  Lie algebras   |   Forms         |                 |
| ~1945    |                 |                 |                 |  ~1920 Banach   |
| Eilenberg|                 |                 |                 |                 |
|          |                 |                 |                 |                 |
| Examples:| • GR (geometric)| • SO(3) (rotations)| • Sphere S²  | • L²(ℝ)         |
|          | • QM (operators)| • SU(2) (spin)  | • Torus T²      | • Cᵏ[0,1]       |
|          | • Category Set  | • U(1) (electr.)| • Spacetime     | • Operators     |
|          | • Functors      |                 |   (4-manifold)  |   in Hilbert sp.|
|          |                 |                 |                 |                 |
| tasks:   | • Find          | • Find Lie      | • Compute       | • Find spectrum |
|          |   symmetries    |   algebra       |   curvature     |   of operator   |
|          | • Construct     | • Find          | • Construct     | • Solve         |
|          |   functor       |   representation|   tangent       |   equation      |
|          | • Apply to      | • Use           |   bundle        |   in Hilbert sp.|
|          |   physics       |   in physics    |                 |                 |
|          |                 |                 |                 |                 |
| why:     | Unified         | Continuous      | Curved          | Quantum         |
|          | structure of all| symmetries,     | spaces,         | mechanics,      |
|          | mathematics,    | gauge           | gravity,        | infinite-dim.   |
|          | application     | theories        | GR              | analysis        |
|          |                 |                 |                 |                 |
+----------+-----------------+-----------------+-----------------+-----------------+

Legend (bottom to top — from emptiness to physics):

  [Level 0] = emptiness — source of everything
  [level 1] = boundaries/forms — drawing boundaries, pattern manipulations
  [Level 2] = sets — categorization, construction of ℕ from ∅
  [level 3] = language and logic — communication, proofs
  [Level 4] = basic structures — one kind of structure
  [Level 5] = combined — several structures simultaneously
  [Level 6] = physics — application to the world, category theory

Vertical connections (what is preserved):

  • Discrete: elements, subsets (without operations and distances)
  • Algebraic: operations and their properties (∗, +, ×)
  • Topological: notion of "closeness" (without distance)
  • Analytic: measurement and change (integrals, derivatives)

Key principle:

  Mathematics — a natural hierarchy arising from the fundamental
  act of drawing boundaries in emptiness. Each level builds on the previous one.

Important observations:

1. History goes bottom to top: ~300 BC → ~1670 → ~1830 → ~1900 → ~1930 → ~1945

2. Each level builds on previous ones: one cannot understand manifolds
   without topology. One cannot understand topology without sets.

3. Four pillars developed in parallel: but in the 20th century they united

-------------------------------------------------------------------------------
Table of Analogies — one pattern in different areas
-------------------------------------------------------------------------------

This table shows: the same pattern manifests in all areas.

"Having learned to understand the pattern, you see it everywhere"

+---------------+--------------+---------------+--------------+---------------+
| CONCEPT       | SETS         | ALGEBRA       | TOPOLOGY     | ANALYSIS      |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| SUBOBJECT     | A ⊆ B        | H ≤ G         | U ⊆ X        | W ⊆ V         |
|               | Subset       | Subgroup      | Subspace     | Subspace      |
|               |              | Subring       | (with induc. | (closed)      |
|               |              |               | topology)    |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| MORPHISM      | f: A → B     | φ: G → H      | f: X → Y     | T: V → W      |
|               | Function     | Homomorphism  | Continuous   | Linear        |
|               |              |               | map          | operator      |
|               |              |               |              |               |
| (mapping,     |              |               |              |               |
| preserving    |              |               |              |               |
| structure)    |              |               |              |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| isomorphism   | Bijection    | G ≅ H         | X ≈ Y        | V ≅ W         |
|               | f: A ↔ B     | Isomorph.     | Homeomorph.  | Isomorphism   |
|               |              | of groups     | of spaces    | of vect. sp.  |
| (structures   |              |               |              |               |
| "the same")   |              |               |              |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| PRODUCT       | A × B        | G × H         | X × Y        | V ⊕ W         |
|               | Cartesian    | Direct        | Product      | Direct sum    |
|               | product      | product       | of topologies|               |
|               |              |               |              |               |
| (combination) | Pairs (a,b)  | Pairs (g,h)   | Pairs (x,y)  | Sum v + w     |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| QUOTIENT      | A / ~        | G / H         | X / ~        | V / W         |
|               | Factor       | Factor group  | Factor       | Factor        |
|               | set          |               | space        | space         |
|               |              |               |              |               |
| (gluing)      | Equivalence  | Cosets        | Equivalence  | Cosets        |
|               | classes      |               | classes      |               |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| duality       | 𝒫(A) ↔ 2^A   | G ↔ Ĝ         | Homology ↔   | V ↔ V*        |
|               |              | Group ↔       | Cohomology   |               |
|               | Boolean ↔    | Characters    |              | Dual          |
|               | Ind. func.   |               |              | space         |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| basis         | Minimal      | Generating    | Basis        | Hamel basis   |
|               | generating   | elements      | of topology  | (lin. indep.) |
|               |              |               |              |               |
| (minimal      |              |               | Minimal      | Minimal       |
| description)  |              |               | cover        | set           |
|               |              |               | of open sets | of vectors    |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| KERNEL        | f⁻¹({b})     | ker(φ) =      | f⁻¹({y})     | ker(T) =      |
|               |              | {g: φ(g)=e}   |              | {v: T(v)=0}   |
|               | Preimage     |               |              |               |
|               | of element   | That which    | Preimage     | That which    |
|               |              | goes to unity | of point     | is killed     |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+
|               |              |               |              |               |
| IMAGE         | f(A)         | Im(φ) =       | f(X)         | Im(T) =       |
|               |              | {φ(g): g∈G}   |              | {T(v): v∈V}   |
|               | Set of       |               |              |               |
|               | values       | Subgroup in H | Subspace in Y| Subspace in W |
|               |              |               |              |               |
+---------------+--------------+---------------+--------------+---------------+

Additional table — basic operations:

+------------+--------------+------------+-----------------------------+
| OPERATION  | ARITY        | EXAMPLES   | APPLICATION                 |
+------------+--------------+------------+-----------------------------+
|            |              |            |                             |
| Negation   | Unary (1)    | ¬P, Aᶜ, -x | Complement, opposite        |
|            |              |            |                             |
| Addition   | Binary (2)   | +, ∪, ∨    | Union, disjunction          |
|            |              |            |                             |
| Multiplica-| Binary (2)   | ×, ∩, ∧    | Intersection, conjunction   |
| tion       |              |            |                             |
| Composition| Binary (2)   | f∘g, AB    | Sequential application      |
|            |              |            |                             |
| Application| Binary (2)   | f(x), T(v) | Functions, operators        |
|            |              |            |                             |
+------------+--------------+------------+-----------------------------+

Philosophy of the table of analogies:

  One and the same pattern manifests in all areas of mathematics.

  If you understood "substructure" in sets (A ⊆ B),
  you automatically understand subgroup (H ≤ G),
  subspace (U ⊆ X) etc.

  Learn horizontally (one concept in all areas),
  not vertically (all concepts of one area).

  This is the principle of categorical mathematics: to study general patterns,
  not concrete realizations.


We examined structures on spaces: algebraic (groups, rings),
topological (proximity), linear (addition, stretching), differential
(smoothness, forms). Categories showed how all these structures are connected.

Now — part III: analysis. This is the art of measuring spaces.

We constructed a space and learned to move through it (groups), understand
its shape (topology), work with flat approximations (linear algebra),
describe curvature (manifolds). But how to measure what is happening?

A function is a scanner with which an observer scans the space.

Temperature T(x) — a function that assigns a number to each point of the room.
Velocity v(x,t) — a function giving a vector at each point and at each moment.
A function is an observer's tool for obtaining numerical data from space.

Analysis studies how these functions change:
  • Derivative — rate of change (local scanner)
  • Integral — accumulated effect (global scanner)
  • Limit — what happens "at the boundary" of measurements

In terms of duality: to study a space of points is the same as to study the
space of functions on it (this is the deep Gelfand–Naimark theorem).


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                         PART III: ANALYSIS OF SPACES
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

In this part the observer begins to compute for the first time. Everything that was
structure before (topology, groups, tensors), now becomes a tool for
concrete calculations: limits, derivatives, integrals, series.

Why after manifolds — limits? In Part II we looked at spaces
globally: topology, curvature, connectedness. Now we need a microscope —
a tool for studying the structure of space near a point. Analysis gives
this microscope: the derivative shows local behavior, the integral collects
local data into a global result.

But remember: computation depends on the choice of coordinates (observer).
The result does not. The integral along a contour does not depend on parametrization.
The derivative in a direction is a geometric object.

===============================================================================
Analysis — from a concrete space to general structures
===============================================================================

-------------------------------------------------------------------------------
Mathematical analysis — calculus of infinitesimals
-------------------------------------------------------------------------------

 Analysis as a view of the space ℝⁿ


 Calculus — this is the study of the concrete space ℝⁿ with all its
 structure: metric, linearity, order.

 We have already seen general structures:
   • Topology: what "close" means in general
   • Metric: what "distance" means
   • Linearity: what "add" and "multiply by a number" mean

 Now we look at how all this works together on ℝⁿ:
   • Limit = topology (convergence in metric)
   • Derivative = linear approximation (best linear approximation)
   • Integral = measure (generalized "size")

 Calculus — not a separate island. This is an example of how general ideas
 are embodied in a concrete space.

-------------------------------------------------------------------------------
 Historical note
-------------------------------------------------------------------------------

 Mathematical analysis studies continuous changes:
   • How a function changes (derivative)
   • How change accumulates (integral)
   • What happens "in the limit" (limit)

 This is the language of physics, engineering, economics — everything where there is change.

   XVII century: Newton and Leibniz independently created analysis
   XIX century: Cauchy, Weierstrass made it rigorous (ε-δ definitions)
   XX century: generalization to manifolds and infinite-dimensional spaces


===============================================================================
Limit — fundamental concept
===============================================================================

Below — definitions of limits for metric spaces (via |x−a|).
General topological definition (via neighborhoods).
These definitions are equivalent: ε-neighborhood — a special case of neighborhood.

 Definitions of limits
+-----------------------+-----------------------------------------------------+
| TYPE                  | FORMAL DEFINITION                                   |
+-----------------------+-----------------------------------------------------+
| Limit                 | lim xₙ = a means:                                   |
| of a sequence         | ∀ε>0 ∃N∈ℕ: ∀n>N ⇒ |xₙ−a| < ε                        |
|                       |                                                     |
|                       | Meaning: after number N all terms in ε-neighborhood |
|                       | of a                                                |
+-----------------------+-----------------------------------------------------+
| Limit of a function   | lim f(x) = L means:                                 |
| at a point            | x→a                                                 |
|                       | ∀ε>0 ∃δ>0: 0<|x−a|<δ ⇒ |f(x)−L| < ε                 |
|                       |                                                     |
|                       | Meaning: f(x) close to L when x close to a          |
+-----------------------+-----------------------------------------------------+
| Limit at              | lim f(x) = L means:                                 |
| infinity              | x→∞                                                 |
|                       | ∀ε>0 ∃M: x>M ⇒ |f(x)−L| < ε                          |
+-----------------------+-----------------------------------------------------+
| Infinite              | lim f(x) = ∞ means:                                 |
| limit                 | x→a                                                 |
|                       | ∀M>0 ∃δ>0: 0<|x−a|<δ ⇒ f(x) > M                      |
+-----------------------+-----------------------------------------------------+

 Examples of limits of sequences
+--------------------+-----------+-----------------------------+
| SEQUENCE           | LIMIT     | EXPLANATION                 |
+--------------------+-----------+-----------------------------+
| xₙ = 1/n           | 0         | 1, 0.5, 0.33, 0.25, ... → 0 |
+--------------------+-----------+-----------------------------+
| xₙ = (n+1)/n       | 1         | 2, 1.5, 1.33, ... → 1       |
+--------------------+-----------+-----------------------------+
| xₙ = (1+1/n)ⁿ      | e ≈ 2.718 | Definition of number e      |
+--------------------+-----------+-----------------------------+
| xₙ = n             | +∞        | Unboundedly grows           |
+--------------------+-----------+-----------------------------+
| xₙ = (−1)ⁿ         | does not  | Jumps: 1, −1, 1, −1, ...    |
|                    | exist     |                             |
+--------------------+-----------+-----------------------------+
| xₙ = sin(n)        | does not  | Chaotically oscillates      |
|                    | exist     |                             |
+--------------------+-----------+-----------------------------+

 Most important limits of functions
+-----------------------+----------+-----------------------------+
| LIMIT                 | VALUE    | APPLICATION                 |
+-----------------------+----------+-----------------------------+
| lim sin(x)/x          | 1        | First remarkable limit      |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (1+x)^(1/x)       | e        | Second remarkable limit     |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (eˣ−1)/x          | 1        | Derivative of eˣ at zero    |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim ln(1+x)/x         | 1        | Derivative of ln at one     |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim (1−cos x)/x²      | 1/2      | Expansion of cosine         |
| x→0                   |          |                             |
+-----------------------+----------+-----------------------------+
| lim xⁿ/eˣ             | 0        | eˣ grows faster than power  |
| x→+∞                  |          |                             |
+-----------------------+----------+-----------------------------+
| lim ln(x)/xᵅ (α>0) | 0        | Power grows faster than ln  |
| x→+∞                  |          |                             |
+-----------------------+----------+-----------------------------+

 Rules for computing limits
+--------------------------+--------------------------------------------+
| RULE                     | FORMULA                                    |
+--------------------------+--------------------------------------------+
| Sum                      | lim(f+g) = lim f + lim g                   |
+--------------------------+--------------------------------------------+
| Product                  | lim(f·g) = lim f · lim g                   |
+--------------------------+--------------------------------------------+
| Quotient                 | lim(f/g) = lim f / lim g  (if lim g ≠ 0)   |
+--------------------------+--------------------------------------------+
| Constant                 | lim(c·f) = c · lim f                       |
+--------------------------+--------------------------------------------+
| Composition              | lim f(g(x)) = f(lim g(x)) if f continuous  |
+--------------------------+--------------------------------------------+
| Squeeze (two policemen)  | g≤f≤h, lim g=lim h=L ⇒ lim f=L             |
+--------------------------+--------------------------------------------+

 Indeterminate forms — When rules don't work
+-----+------------------+------------------------------+
| TYPE| EXAMPLE          | METHOD OF RESOLUTION         |
+-----+------------------+------------------------------+
| 0/0 | sin(x)/x at x→0  | L'Hôpital, expansion, change |
+-----+------------------+------------------------------+
| ∞/∞ | x²/eˣ at x→∞     | L'Hôpital                    |
+-----+------------------+------------------------------+
| 0·∞ | x·ln(x) at x→0⁺  | Reduce to 0/0 or ∞/∞         |
+-----+------------------+------------------------------+
| ∞−∞ | x−√(x²+1)        | Multiply by conjugate        |
+-----+------------------+------------------------------+
| 1^∞ | (1+1/x)ˣ at x→∞  | Take logarithm               |
+-----+------------------+------------------------------+
| 0⁰  | xˣ at x→0⁺       | Take logarithm               |
+-----+------------------+------------------------------+
| ∞⁰  | x^(1/x) at x→∞   | Take logarithm               |
+-----+------------------+------------------------------+

 Important: Why division by 0 is not defined (and it is not infinity)


 Many think: "1/0 = ∞, after all lim(1/x) at x→0⁺ equals +∞"
 This is a mistake. Limit and value of a function — different things.

-------------------------------------------------------------------------------
Why 1/0 is undefined — algebraic argument
-------------------------------------------------------------------------------

   Division is the inverse operation of multiplication:

     a/b = c   means   b·c = a

   Let 1/0 = c. Then by definition: 0·c = 1.
   But 0·c = 0 for any c (field axiom).
   We get 0 = 1 — contradiction.

   Let 0/0 = c. Then 0·c = 0 — true for any c.
   Which c to choose? 0? 1? 1000? No unique answer.

-------------------------------------------------------------------------------
 Why limit ≠ value
-------------------------------------------------------------------------------

   lim f(x) = L  means: "f(x) becomes arbitrarily close to L"
   x→a

   This speaks about behavior near point a, but not about value at point a.

   Examples:
   • lim (x²−1)/(x−1) = 2, but (x²−1)/(x−1) at x=1 is undefined
     x→1
   • lim 1/x = +∞, but 1/0 is undefined (not even "equals +∞")
     x→0⁺

-------------------------------------------------------------------------------
 Additional problem: different limits from different sides
-------------------------------------------------------------------------------

   lim 1/x = +∞     (from the right)
   x→0⁺
   lim 1/x = −∞     (from the left)
   x→0⁻

   Which "infinity" to choose? +∞ or −∞?
   If 1/0 = ∞, then we would get +∞ = −∞, which is absurd.

-------------------------------------------------------------------------------
 Conclusion
-------------------------------------------------------------------------------

   • 1/0 — undefined (there does not exist a number c such that 0·c = 1)
   • 0/0 — indeterminate (there are infinitely many solutions to 0·c = 0)
   • lim 1/x = ±∞ — this is about behavior, not about value
   • In standard arithmetic ∞ — not a number, but a symbol for limit

   (In extended number systems ∞ can be introduced as an element,
    but then some familiar properties of arithmetic are lost.
    Example: on the Riemann sphere ℂ̂ = ℂ ∪ {∞} the operation 1/0 = ∞ is valid,
    but then 0·∞ and ∞−∞ are undefined. See about complex analysis)


===============================================================================
Continuity — absence of discontinuities
===============================================================================

 Definitions of continuity
+-----------------------+-----------------------------------------------------+
| FORMULATION           | DEFINITION                                          |
+-----------------------+-----------------------------------------------------+
| Via limit             | f continuous at a ⟺ lim f(x) = f(a)                 |
|                       |                     x→a                             |
+-----------------------+-----------------------------------------------------+
| ε-δ definition        | ∀ε>0 ∃δ>0: |x−a|<δ ⇒ |f(x)−f(a)|<ε                 |
+-----------------------+-----------------------------------------------------+
| Via sequences         | xₙ→a ⇒ f(xₙ)→f(a) for any (xₙ)                     |
+-----------------------+-----------------------------------------------------+
| Topological           | Preimage of open set is open                        |
| definition            | f⁻¹(U) is open for any open U                       |
+-----------------------+-----------------------------------------------------+

 Three conditions for continuity at point a
+---+---------------------+----------------------------------+
| № | CONDITION           | WHAT IS VIOLATED (IF NOT MET)    |
+---+---------------------+----------------------------------+
| 1 | f(a) is defined     | Point is punctured               |
+---+---------------------+----------------------------------+
| 2 | lim f(x) exists     | Jump or oscillation              |
|   | x→a                 |                                  |
+---+---------------------+----------------------------------+
| 3 | lim f(x) = f(a)     | Removable discontinuity          |
|   | x→a                 |                                  |
+---+---------------------+----------------------------------+

 Types of discontinuities
+-----------------+---------------------+---------------------------+
| TYPE            | SIGN                | EXAMPLE                   |
+-----------------+---------------------+---------------------------+
| Removable       | lim exists,         | f(x)=(x²−1)/(x−1) at x=1  |
|                 | but f(a)≠lim or     | lim=2, but f(1) undef.    |
|                 | f(a) undefined      |                           |
+-----------------+---------------------+---------------------------+
| Jump (1st kind) | One-sided           | sign(x) at x=0            |
|                 | limits exist,       | lim₋ = −1, lim₊ = +1      |
|                 | but not equal       |                           |
+-----------------+---------------------+---------------------------+
| Essential       | At least one        | sin(1/x) at x=0           |
| (2nd kind)      | one-sided           | Infinite oscillations     |
|                 | limit doesn't exist |                           |
+-----------------+---------------------+---------------------------+

 Properties of continuous functions
+-------------------------------+---------------------------------------------+
| OPERATION                     | RESULT                                      |
+-------------------------------+---------------------------------------------+
| f, g continuous at a          | f+g, f−g, f·g continuous at a               |
+-------------------------------+---------------------------------------------+
| f, g continuous, g(a)≠0       | f/g continuous at a                         |
+-------------------------------+---------------------------------------------+
| f cont. at a, g cont. at f(a) | g∘f continuous at a                         |
+-------------------------------+---------------------------------------------+
| |f| when f continuous         | |f| continuous                              |
+-------------------------------+---------------------------------------------+
| max(f,g), min(f,g)            | Continuous if f and g are continuous        |
+-------------------------------+---------------------------------------------+

 Fundamental theorems
+----------------------+-------------------------------------------------+
| THEOREM              | FORMULATION and COROLLARY                       |
+----------------------+-------------------------------------------------+
| Weierstrass          | f cont. on [a,b] ⇒ f attains max and min        |
| (on extrema)         |                                                 |
|                      | Corollary: ∃c,d∈[a,b]: f(c)≤f(x)≤f(d) ∀x        |
+----------------------+-------------------------------------------------+
| Intermediate value   | f cont. on [a,b], f(a)0  |
       |  ╲    ╱ 3
       |   ╲  ╱
       |    ╲╱  isotherm T₂ (cooler)
       |     4
       +------------------ V

 Why ∮ P dV ≠ 0?
   If P = P(V) were function of only V, then ∮ P dV = 0 always.
   But P = P(V, T) — depends on T also.
   On upper isotherm pressure is higher at same V → work is positive.

 Efficiency of Carnot cycle:

   η = W/Q₁ = (Q₁ - Q₂)/Q₁ = 1 - T₂/T₁

   This is maximum efficiency for any engine between T₁ and T₂.
   (Follows from 2nd law of thermodynamics)

 Connection with entropy:
   For reversible process: ∮ dQ/T = 0
   This means: ∮ dS = 0 (entropy — state function)
   Mathematically: dS — exact differential, but dQ — not.

 Moral: Contour integral ∮ = 0 only for exact differential.
        dQ not exact → can extract work. dS exact → returns.


===============================================================================
Applications of Analysis
===============================================================================

 Applications of Derivatives


 1. finding extrema:
    f'(x) = 0 — necessary condition for local extremum
    f''(x) < 0 ⇒ local maximum
    f''(x) > 0 ⇒ local minimum

 2. function analysis:
    f' > 0: increasing
    f' < 0: decreasing
    f'' > 0: concave up (∪)
    f'' < 0: concave down (∩)

 3. L'Hôpital's rule (for indeterminate forms 0/0 or ∞/∞):
    lim f(x)/g(x) = lim f'(x)/g'(x)  (if the right limit exists)
    x→a           x→a

 4. Taylor series (approximation of function by polynomial):
    f(x) = f(a) + f'(a)(x−a) + f''(a)(x−a)²/2! + f'''(a)(x−a)³/3! + ...

    Reference table of expansions (a = 0, Maclaurin series):

    +---------------------+---------------------------------------------+----------+
    | FUNCTION            | EXPANSION                                   | RADIUS R |
    +---------------------+---------------------------------------------+----------+
    | eˣ                  | 1 + x + x²/2! + x³/3! + ...                | ∞        |
    | sin x               | x − x³/3! + x⁵/5! − x⁷/7! + ...           | ∞        |
    | cos x               | 1 − x²/2! + x⁴/4! − x⁶/6! + ...           | ∞        |
    | sinh x              | x + x³/3! + x⁵/5! + x⁷/7! + ...           | ∞        |
    | cosh x              | 1 + x²/2! + x⁴/4! + x⁶/6! + ...           | ∞        |
    +---------------------+---------------------------------------------+----------+
    | 1/(1−x)             | 1 + x + x² + x³ + ...  (geometric)         | 1        |
    | ln(1+x)             | x − x²/2 + x³/3 − x⁴/4 + ...              | 1        |
    | arctan x             | x − x³/3 + x⁵/5 − x⁷/7 + ...              | 1        |
    +---------------------+---------------------------------------------+----------+
    | (1+x)^α             | 1 + αx + α(α−1)x²/2! + ...  (binomial)    | 1        |
    | Special cases:      |                                             |          |
    |   √(1+x)  (α=½)    | 1 + x/2 − x²/8 + x³/16 − ...              | 1        |
    |   1/(1+x)  (α=−1)  | 1 − x + x² − x³ + ...                      | 1        |
    |   1/(1+x)² (α=−2)  | 1 − 2x + 3x² − 4x³ + ...                   | 1        |
    +---------------------+---------------------------------------------+----------+

    R = radius of convergence: series converges for |x| < R, diverges for |x| > R.


 Applications of Integrals


 1. area between curves:
    S = ∫ₐᵇ |f(x) − g(x)| dx

 2. volume of solid of revolution:
    V = π ∫ₐᵇ [f(x)]² dx    (rotation around x-axis)

 3. arc length:
    L = ∫ₐᵇ √(1 + [f'(x)]²) dx

 4. surface area of revolution:
    S = 2π ∫ₐᵇ f(x)√(1 + [f'(x)]²) dx

 5. physical applications:
    • Work: W = ∫ F dx
    • Center of mass: x̄ = ∫x·ρ(x)dx / ∫ρ(x)dx
    • Moment of inertia: I = ∫r²·dm


 Connection with Heat Engineering


 Heat conduction equation:

   ∂T/∂t = α · ∂²T/∂x²

 This is a partial differential equation.
 Temperature T depends on time t and coordinate x.

 Fourier's law (heat flux):
   q = −k · dT/dx
   Flux is proportional to temperature gradient.
   Minus: heat flows from hot to cold.

 Stationary case (∂T/∂t = 0):
   d²T/dx² = 0  ⇒  T(x) = ax + b  (linear profile)

 Integral = heat accumulation:
   Q = ∫₀ᵗ P(τ)dτ  (energy = integral of power over time)


===============================================================================
Convergence of Series — When Infinite Sum Makes Sense
===============================================================================

 Problem: what does "infinite sum" mean?


 Expression a₁ + a₂ + a₃ + ... = Σₙ aₙ is not an ordinary sum.
 We cannot add infinitely many numbers directly.

 Definition via limit of partial sums:

   Sₙ = a₁ + a₂ + ... + aₙ  (n-th partial sum)

 +----------------------------------------------------+
 | Series Σaₙ converges if a finite limit exists:     |
 |                                                    |
 | Σₙ₌₁^∞ aₙ = lim Sₙ = S                             |
 | n→∞                                                |
 |                                                    |
 | Otherwise the series diverges.                     |
 +----------------------------------------------------+


 Key Examples


 1. geometric series:
    Σₙ₌₀^∞ rⁿ = 1 + r + r² + r³ + ...

    • |r| < 1: converges to 1/(1−r)
      Example: 1 + ½ + ¼ + ⅛ + ... = 2

    • |r| ≥ 1: diverges
      Example: 1 + 1 + 1 + ... = ∞

 2. harmonic series:
    Σₙ₌₁^∞ 1/n = 1 + ½ + ⅓ + ¼ + ... = ∞  (diverges).

    Although terms → 0, sum is still infinite.
    (Proof: group 1/3+1/4 > 1/2, 1/5+...+1/8 > 1/2, etc.)

 3. p-series:
    Σₙ₌₁^∞ 1/nᵖ  converges ⟺ p > 1

    • Σ 1/n² = π²/6  (Basel problem, Euler 1734)
    • Σ 1/n  = ∞     (harmonic, p = 1)

 4. alternating series:
    1 − ½ + ⅓ − ¼ + ... = ln(2)  converges (conditionally)


 Convergence Tests — Brief Table
+---------------------------+-------------------------------------------------+
| TEST                      | FORMULATION                                     |
+---------------------------+-------------------------------------------------+
| Necessary                 | If Σaₙ converges, then aₙ → 0                   |
| (but not sufficient)      | Converse is FALSE: aₙ→0 ⇏ convergence         |
+---------------------------+-------------------------------------------------+
| Comparison                | 0 ≤ aₙ ≤ bₙ, Σbₙ conv. ⇒ Σaₙ conv.            |
+---------------------------+-------------------------------------------------+
| d'Alembert (ratio)        | lim |aₙ₊₁/aₙ| = L: L<1 conv., L>1 div.        |
+---------------------------+-------------------------------------------------+
| Cauchy (root)             | lim ⁿ√|aₙ| = L: L<1 conv., L>1 div.           |
+---------------------------+-------------------------------------------------+
| Integral                  | Σf(n) conv. ⟺ ∫f(x)dx conv. (f↓, f>0)         |
+---------------------------+-------------------------------------------------+
| Leibniz (alternating)     | (−1)ⁿaₙ, aₙ↓0 ⇒ converges                      |
+---------------------------+-------------------------------------------------+

 Absolute vs Conditional Convergence


 • Σaₙ converges absolutely if Σ|aₙ| converges
 • Σaₙ converges conditionally if Σaₙ conv. but Σ|aₙ| div.

 Important: Absolute convergence ⇒ convergence (converse is false)

 Example:
   1 − ½ + ⅓ − ¼ + ... converges conditionally
   (because 1 + ½ + ⅓ + ¼ + ... = ∞)

 Riemann's theorem: A conditionally convergent series can by rearrangement of terms
   be made to converge to any number (or diverge)!

   An absolutely convergent series can be rearranged arbitrarily —
   the sum does not change.


===============================================================================
Differential equations — equations with derivatives
===============================================================================

 Differential equations as a view on space


 Everything that changes is described by a differential equation.

 Temperature of a rod, oscillation of a pendulum, population growth, nuclear decay,
 asset price, tank heating — all these processes are united by one thing:
 the rate of change of a quantity depends on the quantity itself.

 A differential equation is a law relating the state of a system
 to how fast it changes. The solution of a DE is not a number, but a function:
 the complete trajectory of the system in time.

 In terms of spaces: an ODE defines a vector field on the space of
 states. At each point — an arrow "where to move". The solution is an
 integral curve of this field.


 What is a differential equation


 A differential equation (DE) — an equation containing an unknown
 function y(x) and its derivatives y', y'', ...

 Examples:
   • y' = ky         (exponential growth/decay)
   • y'' + y = 0     (harmonic oscillator)
   • y' = y(1−y)     (logistic growth)

 The solution of a DE is a function y(x) satisfying the equation.

 The order of a DE is the highest derivative in the equation.
   y' = ky — first order
   y'' + y = 0 — second order


 Classification
+-------------------------+-----------------------------------------------------+
| TYPE                    | DESCRIPTION                                         |
+-------------------------+-----------------------------------------------------+
| ODE (ordinary)          | One independent variable: y(x)                      |
|                         | Example: y' = f(x, y)                               |
+-------------------------+-----------------------------------------------------+
| PDE (partial deriv.)    | Several independent variables: u(x,y,t)             |
|                         | Example: ∂u/∂t = α·∂²u/∂x² (heat conduction)        |
+-------------------------+-----------------------------------------------------+
| Linear                  | y and derivatives enter linearly                    |
|                         | Example: y'' + p(x)y' + q(x)y = f(x)                |
+-------------------------+-----------------------------------------------------+
| Nonlinear               | y or derivatives in power > 1, in products          |
|                         | Example: y' = y², (y')² + y = 1                     |
+-------------------------+-----------------------------------------------------+
| Homogeneous             | f(x) = 0 (right-hand side equals zero)              |
| Nonhomogeneous          | f(x) ≠ 0                                            |
+-------------------------+-----------------------------------------------------+

 How to independently formulate a differential equation


 Differential equations don't fall from the sky — they are constructed from
 physical principles. Here is an algorithm for constructing any meaningful DE:

   +---------------------+
   |   Physical          |
   |   object            |  →  What are we studying?
   +---------+-----------+
             ↓
   +---------------------+
   |   Physical          |
   |   process           |  →  What is happening?
   +---------+-----------+
             ↓
   +---------------------+
   |   Elementary        |
   |   volume            |  →  dx, dy, dz, dt
   +---------+-----------+
             ↓
   +---------------------+
   |   Conservation      |
   |   law               |  →  What doesn't change?
   +---------+-----------+
             ↓
   +---------------------+
   |  Differential       |
   |  equation           |  →  Mathematical model
   +---------------------+

-------------------------------------------------------------------------------
 Example: heat conduction equation
-------------------------------------------------------------------------------

 1. object: rod
 2. process: heat propagation along the rod
 3. elementary volume: dx — small piece of rod
 4. conservation law: energy (heat flowing in = heat flowing out + accumulation)

   • Heat flux at point x:     q(x) = −k · ∂T/∂x  (Fourier's law)
   • Heat flux at point x+dx:  q(x+dx) = −k · ∂T/∂x|_{x+dx}
   • Heat accumulation in volume:    ρc · ∂T/∂t · dx
   • Balance:  q(x) − q(x+dx) = ρc · ∂T/∂t · dx
   • Expansion:  q(x+dx) ≈ q(x) + ∂q/∂x · dx
   • Result:  −∂q/∂x = ρc · ∂T/∂t
   • Substitution:  k · ∂²T/∂x² = ρc · ∂T/∂t

   Result: ∂T/∂t = α · ∂²T/∂x²,  where α = k/(ρc) — thermal diffusivity

-------------------------------------------------------------------------------
 Important note
-------------------------------------------------------------------------------

 Practically any DE used in physics (Navier–Stokes, Maxwell,
 diffusion equation) can technically be solved even in Excel.

 Each cell corresponds to one linear equation, referencing
 neighboring cells. At the boundary, constants are given (boundary conditions).

 This is the essence of numerical methods: replace derivatives with differences,
 continuous — with discrete.


 Most important DEs and their solutions


 1. exponential growth/decay:
    y' = ky
    Solution: y = Ceᵏˣ

    Examples: radioactive decay (k<0), population growth (k>0),
             heating/cooling (Newton's law)

 2. harmonic oscillator:
    y'' + ω²y = 0
    Solution: y = A·cos(ωx) + B·sin(ωx) = C·cos(ωx + φ)

    Examples: pendulum, spring, oscillations in circuits

 3. damped oscillations:
    y'' + 2γy' + ω²y = 0
    Characteristic equation: λ² + 2γλ + ω² = 0

    • γ < ω: damped oscillations (underdamping)
    • γ = ω: critical damping
    • γ > ω: aperiodic regime (overdamping)

 4. heat conduction equation (PDE):
    ∂T/∂t = α·∂²T/∂x²

    Solution by separation of variables or Fourier series

 5. wave equation (PDE):
    ∂²u/∂t² = c²·∂²u/∂x²

    Solution: u = f(x−ct) + g(x+ct) (waves traveling left and right)


 Methods for solving first-order ODEs


 1. separation of variables:
    If y' = f(x)g(y), then dy/g(y) = f(x)dx → integrate both sides

    Example: y' = xy
    dy/y = x dx → ln|y| = x²/2 + C → y = Aeˣ²/²

 2. linear ODE of 1st order:
    y' + p(x)y = q(x)

    Integrating factor: μ(x) = e^{∫p(x)dx}
    Solution: y = (1/μ)∫μq dx

 3. homogeneous equation:
    y' = f(y/x)
    Substitution: v = y/x, then y = vx, y' = v + xv'


 Initial and boundary conditions


 The general solution of a DE contains arbitrary constants.
 To find a particular solution, additional conditions are needed:

 Initial conditions (Cauchy problem):
   Values of the function and derivatives at the initial moment
   y(0) = y₀, y'(0) = v₀, ...

 Boundary conditions:
   Values at the boundaries of the domain
   y(a) = A, y(b) = B

 Existence and uniqueness theorem (Picard):
   For y' = f(x,y), y(x₀) = y₀, if f is continuous and satisfies
   the Lipschitz condition in y, then the solution exists and is unique.


 Methods for solving second-order ODEs


 Linear ODE of 2nd order with constant coefficients:
   ay'' + by' + cy = f(x)

 Step 1: Solve the homogeneous equation (f(x) = 0)

   Seek solution of the form y = eˡˣ. Substitute:
   a·λ²eˡˣ + b·λeˡˣ + c·eˡˣ = 0
   eˡˣ(aλ² + bλ + c) = 0

 +-------------------------------------------------+
 | CHARACTERISTIC EQUATION:  aλ² + bλ + c = 0      |
 +-------------------------------------------------+

 General solution of the homogeneous depending on roots λ₁, λ₂:

 +----------------+---------------------------------+
 | DISCRIMINANT   | GENERAL SOLUTION                |
 +----------------+---------------------------------+
 | D > 0          | y = C₁eˡ¹ˣ + C₂eˡ²ˣ             |
 | (two real)     | (λ₁ ≠ λ₂ — different real)      |
 +----------------+---------------------------------+
 | D = 0          | y = (C₁ + C₂x)eˡˣ               |
 | (one repeated) | (λ₁ = λ₂ = λ)                   |
 +----------------+---------------------------------+
 | D < 0          | y = eᵅˣ(C₁cos(βx) + C₂sin(βx))  |
 | (complex)      | where λ = α ± iβ                |
 +----------------+---------------------------------+

 Step 2: Find a particular solution of the nonhomogeneous (method of variation of parameters
        or method of undetermined coefficients)

 Step 3: general solution = general homogeneous + particular nonhomogeneous

 Example: y'' + 4y = 0
   λ² + 4 = 0 → λ = ±2i → y = C₁cos(2x) + C₂sin(2x)


 Laplace transform — powerful tool


 +--------------------------------------------------------------------+
 | DEFINITION:                                                        |
 | ∞                                                                  |
 | ℒ{f(t)} = F(s) = ∫  e⁻ˢᵗ f(t) dt                                   |
 | 0                                                                  |
 |                                                                    |
 | Transforms a time function f(t) into a complex frequency function F(s) |
 +--------------------------------------------------------------------+

 Why needed:
   • Transforms DEs into algebraic equations
   • Automatically accounts for initial conditions
   • Ideal for linear systems, control theory

 Key property — derivative:
   ℒ{f'(t)} = sF(s) − f(0)
   ℒ{f''(t)} = s²F(s) − sf(0) − f'(0)

   Differentiation → multiplication by s (plus initial conditions)


 Table of Laplace transforms
+-------------------------+-------------------+
| f(t)                    | F(s) = ℒ{f(t)}    |
+-------------------------+-------------------+
| 1                       | 1/s               |
+-------------------------+-------------------+
| t                       | 1/s²              |
+-------------------------+-------------------+
| tⁿ                      | n!/sⁿ⁺¹           |
+-------------------------+-------------------+
| eᵃᵗ                     | 1/(s−a)           |
+-------------------------+-------------------+
| sin(ωt)                 | ω/(s²+ω²)         |
+-------------------------+-------------------+
| cos(ωt)                 | s/(s²+ω²)         |
+-------------------------+-------------------+
| eᵃᵗsin(ωt)              | ω/((s−a)²+ω²)     |
+-------------------------+-------------------+
| eᵃᵗcos(ωt)              | (s−a)/((s−a)²+ω²) |
+-------------------------+-------------------+
| δ(t) (delta function)   | 1                 |
+-------------------------+-------------------+
| u(t) (unit step)        | 1/s               |
+-------------------------+-------------------+

 Example: solving DE by Laplace transform


 Problem: y'' + 4y = 0,  y(0) = 1,  y'(0) = 0

 Step 1: Apply ℒ to both sides
   ℒ{y''} + 4ℒ{y} = 0
   [s²Y(s) − sy(0) − y'(0)] + 4Y(s) = 0
   [s²Y(s) − s·1 − 0] + 4Y(s) = 0

 Step 2: Solve algebraic equation
   (s² + 4)Y(s) = s
   Y(s) = s/(s² + 4)

 Step 3: Inverse transform (from table)
   Y(s) = s/(s² + 2²) → y(t) = cos(2t)

 Answer: y(t) = cos(2t)


 Table of Fourier transforms

 Definition: ℱ{f(t)} = F(ω) = ∫_{−∞}^{∞} f(t)·e^{−iωt} dt

+----------------------------+------------------------------+
| f(t)                       | F(ω) = ℱ{f(t)}              |
+----------------------------+------------------------------+
| δ(t)                       | 1                            |
+----------------------------+------------------------------+
| 1                          | 2π·δ(ω)                      |
+----------------------------+------------------------------+
| e^{iω₀t}                   | 2π·δ(ω − ω₀)                |
+----------------------------+------------------------------+
| cos(ω₀t)                   | π[δ(ω−ω₀) + δ(ω+ω₀)]        |
+----------------------------+------------------------------+
| sin(ω₀t)                   | πi[δ(ω+ω₀) − δ(ω−ω₀)]       |
+----------------------------+------------------------------+
| e^{−a|t|}  (a>0)           | 2a/(a² + ω²)                |
+----------------------------+------------------------------+
| e^{−at²}  (Gaussian)       | √(π/a)·e^{−ω²/(4a)}         |
+----------------------------+------------------------------+
| rect(t/τ) (rectangle)      | τ·sinc(ωτ/2)                 |
+----------------------------+------------------------------+
| u(t)·e^{−at} (a>0)         | 1/(a + iω)                   |
+----------------------------+------------------------------+
| t·u(t)·e^{−at}             | 1/(a + iω)²                  |
+----------------------------+------------------------------+

 Key properties:
   Linearity:    ℱ{af + bg} = aF + bG
   Shift:        ℱ{f(t−t₀)} = e^{−iωt₀}F(ω)
   Modulation:   ℱ{e^{iω₀t}f(t)} = F(ω − ω₀)
   Convolution:  ℱ{f * g} = F · G
   Derivative:   ℱ{f'(t)} = iω·F(ω)
   Parseval:     ∫|f(t)|²dt = (1/2π)∫|F(ω)|²dω


 Summary table: basic PDEs of mathematical physics


 +--------------+-----------------+-----------------+------------------+
 | EQUATION     | FORMULA         | TYPE            | PHYSICS          |
 +--------------+-----------------+-----------------+------------------+
 | Heat         | ∂u/∂t = α∇²u    | Parabolic       | Diffusion,       |
 | conduction   |                 |                 | heat exchange    |
 +--------------+-----------------+-----------------+------------------+
 | Wave         | ∂²u/∂t² = c²∇²u | Hyperbolic      | Oscillations,    |
 |              |                 |                 | waves, sound     |
 +--------------+-----------------+-----------------+------------------+
 | Laplace      | ∇²u = 0         | Elliptic        | Stationary       |
 |              |                 |                 | fields, potentials|
 +--------------+-----------------+-----------------+------------------+
 | Poisson      | ∇²u = f         | Elliptic        | Electrostatics,  |
 |              |                 |                 | gravitation      |
 +--------------+-----------------+-----------------+------------------+
 | Schrödinger  | iℏ∂ψ/∂t = Ĥψ    | Parabolic       | Quantum          |
 |              |                 | (in t)          | mechanics        |
 +--------------+-----------------+-----------------+------------------+
 | Navier–Stokes| ∂v/∂t + (v·∇)v  | Nonlinear.      | Hydrodynamics    |
 |              | = −∇p/ρ + ν∇²v  |                 |                  |
 +--------------+-----------------+-----------------+------------------+

 Classification by characteristics (for linear 2nd order):

 +-----------------+------------------+----------------------------+
 | TYPE            | DISCRIMINANT     | BEHAVIOR OF SOLUTIONS      |
 +-----------------+------------------+----------------------------+
 | Elliptic        | B² − 4AC < 0     | Smooth, max inside         |
 | (Laplace)       | (no real char.)  | Boundary value problems    |
 +-----------------+------------------+----------------------------+
 | Parabolic       | B² − 4AC = 0     | Smoothing, diffusion       |
 | (Heat cond.)    | (one char.)      | Initial + boundary cond.   |
 +-----------------+------------------+----------------------------+
 | Hyperbolic      | B² − 4AC > 0     | Waves, discontinuities     |
 | (Wave)          | (two char.)      | Cauchy problem             |
 +-----------------+------------------+----------------------------+


 Boundary conditions — how to pose a problem


 PDEs without boundary conditions have infinitely many solutions.
 Boundary conditions select a unique physically meaningful one.

 +-------------+------------------+-------------------------------------------+
 | TYPE        | FORMULA          | PHYSICAL MEANING                          |
 +-------------+------------------+-------------------------------------------+
 | Dirichlet   | u|_∂Ω = g        | Temperature specified at boundary         |
 |             |                  | (thermostat)                              |
 +-------------+------------------+-------------------------------------------+
 | Neumann     | ∂u/∂n|_∂Ω = h    | Heat flux specified through boundary      |
 |             |                  | (insulation when h=0)                     |
 +-------------+------------------+-------------------------------------------+
 | Robin       | (∂u/∂n + αu)|_∂Ω | Convective heat exchange with environment |
 | (third      | = h              | (Newton–Richmann law):                    |
 | kind)       |                  | q = α(T_surf − T_env)                     |
 +-------------+------------------+-------------------------------------------+

 For an engineer: Dirichlet — thermostat, Neumann — insulation/heater,
 Robin — free heat exchange with air.


 Method of separation of variables — example


 Problem: ∂T/∂t = α·∂²T/∂x² on [0, L], T(0,t) = T(L,t) = 0, T(x,0) = f(x)

 Idea: seek T(x,t) = X(x)·Θ(t) — product of function of x and function of t.

 Substitution: X·Θ' = α·X''·Θ  →  Θ'/(αΘ) = X''/X = −λ  (= const)

 Two ODEs instead of one PDE:
   X'' + λX = 0,   X(0) = X(L) = 0   →  Xₙ = sin(nπx/L),  λₙ = (nπ/L)²
   Θ' + αλₙΘ = 0                      →  Θₙ = e^{−α(nπ/L)²t}

 General solution (superposition):
   T(x,t) = Σₙ bₙ · sin(nπx/L) · e^{−α(nπ/L)²t}

 Coefficients from initial condition (Fourier series):
   bₙ = (2/L) ∫₀ᴸ f(x)·sin(nπx/L) dx

 Physical meaning: each harmonic decays exponentially,
 high frequencies (large n) decay faster — heat "smooths out".


===============================================================================
Uniform Convergence — Key Concept
===============================================================================

 Problem: When can we interchange limits?


 Suppose fₙ(x) → f(x) as n → ∞. Are the following equalities valid?

   lim ∫fₙ(x)dx  =?  ∫ lim fₙ(x) dx     (limit of integral = integral of limit)
   n→∞               n→∞

   lim fₙ'(x)    =?  (lim fₙ(x))'        (limit of derivatives = derivative)
   n→∞               n→∞

 Answer: In general — no.

 Counterexample:
   fₙ(x) = xⁿ on [0,1]
   fₙ(x) → f(x) = { 0, if x < 1
                  { 1, if x = 1
   ∫₀¹ fₙ dx = 1/(n+1) → 0
   ∫₀¹ f dx  = 0       ✓ (coincided accidentally)

   But f is discontinuous, although all fₙ are continuous.
   The limit of continuous functions need not be continuous.


 Two Types of Convergence


 +-------------------------------------------------------------------------+
 | POINTWISE CONVERGENCE                                                   |
 | fₙ → f pointwise, if ∀x: lim fₙ(x) = f(x)                              |
 |                           n→∞                                           |
 |                                                                         |
 | Formally: ∀x ∀ε>0 ∃N(x,ε): n>N ⇒ |fₙ(x)−f(x)| < ε                    |
 |                    ↑                                                    |
 |            N depends on x!                                              |
 +-------------------------------------------------------------------------+

 +-------------------------------------------------------------------------+
 | UNIFORM CONVERGENCE                                                     |
 | fₙ ⇉ f uniformly, if convergence is "equally fast" for all x           |
 |                                                                         |
 | Formally: ∀ε>0 ∃N(ε): ∀x ∀n>N ⇒ |fₙ(x)−f(x)| < ε                     |
 |                  ↑                                                      |
 |          N does not depend on x!                                        |
 +-------------------------------------------------------------------------+

 Equivalent condition:
   fₙ ⇉ f  ⟺  sup|fₙ(x) − f(x)| → 0
              x

 Visually:
   Uniform convergence = graph of fₙ entirely fits in an ε-tube
   around the graph of f (for sufficiently large n)

       f(x)+ε -------------------------
              ~~~~~~~~fₙ(x)~~~~~~~~~   ← fₙ inside the tube
       f(x)   =========================
              ~~~~~~~~~~~~~~~~~~~~~~~~
       f(x)−ε -------------------------


 Why Uniform Convergence is Important


 Theorems on interchange of limits:

 +------------------------------------------------------+
 | If fₙ ⇉ f UNIFORMLY on [a,b]:                        |
 |                                                      |
 | 1. LIMIT PRESERVES CONTINUITY:                       |
 | fₙ continuous ⇒ f continuous                         |
 |                                                      |
 | 2. ONE CAN INTERCHANGE LIMIT and INTEGRAL:           |
 | lim ∫fₙ dx = ∫ lim fₙ dx = ∫f dx                     |
 | n→∞         n→∞                                      |
 |                                                      |
 | 3. ONE CAN INTERCHANGE LIMIT and DERIVATIVE:         |
 | If fₙ' ⇉ g uniformly and fₙ(x₀) converges, then f' = g |
 +------------------------------------------------------+

 Without uniformity these assertions are false.


 Criterion for Uniform Convergence of Series (Weierstrass Test)


 Let Σuₙ(x) be a functional series.

 +-------------------------------------------------------------------------+
 | WEIERSTRASS TEST (M-test):                                              |
 |                                                                         |
 | If there exist numbers Mₙ ≥ 0 such that:                                |
 |   1. |uₙ(x)| ≤ Mₙ for all x                                             |
 |   2. Σ Mₙ converges (numerical series)                                  |
 |                                                                         |
 | Then Σuₙ(x) converges UNIFORMLY and ABSOLUTELY.                         |
 +-------------------------------------------------------------------------+

 Example: Series Σ xⁿ/n² on [−1, 1]
   |xⁿ/n²| ≤ 1/n² = Mₙ
   Σ 1/n² converges (p-series, p=2>1)
   ⇒ series converges uniformly on [−1, 1]


 Power Series and Uniform Convergence


 Power series Σaₙxⁿ has radius of convergence r:
   • |x| < R: series converges absolutely
   • |x| > R: series diverges
   • |x| = R: need to check separately

 Cauchy–Hadamard formula:  1/R = lim sup ⁿ√|aₙ|
                                 n→∞

 Key fact:
   On any interval [−r, r] with r < R the power series
   converges uniformly.

   Therefore one can differentiate and integrate power series
   term-by-term inside the circle of convergence.


 Applied Example: Storage Tank Dynamics


 Problem: Hot water storage tank. Inflow and outflow vary with time.
 How does water temperature change?

           Gᵢₙ, Tᵢₙ
              ↓
         +===========+
         |           |      V — tank volume
         |    T(t)   |      T(t) — water temperature
         |           |      Gᵢₙ, Gₒᵤₜ — flow rates (kg/s)
         +===========+
              ↓
           Gₒᵤₜ, T

 Heat balance equation:

   ρVc · dT/dt = Gᵢₙ·c·(Tᵢₙ − T) + Qₗₒₛₛ
       ↑            ↑                  ↑
   accumulation   heat inflow      losses to outside

-------------------------------------------------------------------------------
Derivative — rate of change:
-------------------------------------------------------------------------------

   dT/dt = rate of temperature change [°C/s]

   • dT/dt > 0: tank is heating up
   • dT/dt < 0: tank is cooling down
   • dT/dt = 0: steady-state regime (temperature is constant)

-------------------------------------------------------------------------------
 Integral — accumulation:
-------------------------------------------------------------------------------

   Accumulated heat over time [0, t]:

   Q = ∫₀ᵗ Gᵢₙ·c·(Tᵢₙ − T) dτ     [J]

   If Gᵢₙ = 1 kg/s, Tᵢₙ = 80°C, T = 60°C, c = 4200 J/(kg·K):
   Over 1 hour (3600 s): Q = 1 × 4200 × 20 × 3600 = 302 MJ

-------------------------------------------------------------------------------
 Numerical example:
-------------------------------------------------------------------------------

   V = 1 m³, ρ = 1000 kg/m³, c = 4200 J/(kg·K)
   Gᵢₙ = 0.1 kg/s, Tᵢₙ = 90°C, initial T₀ = 20°C
   Losses: Qₗₒₛₛₑₛ = −100·(T − Tₐₘᵦ), Tₐₘᵦ = 20°C

   Time constant: τ = ρVc / (Gᵢₙ·c + k) ≈ 4.2×10⁶ / (420 + 100)
                      ≈ 8000 s ≈ 2.2 hours

   Over time τ temperature reaches ~63% of steady-state value.

-------------------------------------------------------------------------------

 Moral: Derivative = instantaneous rate of change.
 Integral = accumulated effect over time. This is the language of thermal dynamics.


-------------------------------------------------------------------------------


Calculus works with functions as objects. But the set of functions —
is also a space, and an infinite-dimensional one at that. Is it possible to do
linear algebra on it?

Yes. Series are coordinates of a function in the basis {1, x, x², ...} or {eⁱⁿˣ}.
This is a bridge to functional analysis — linear algebra on spaces of functions.
===============================================================================
Series and functional spaces — bridge to functional analysis
===============================================================================

 Series as a view of the space of functions


 Functions form an infinite-dimensional space. Fourier and Taylor series —
 are coordinates of a function in this space relative to a chosen basis.

   • Taylor basis: 1, x, x², x³, ... (power functions)
   • Fourier basis:   eⁱⁿˣ = cos(nx) + i·sin(nx) (harmonics)

 Series coefficients = function coordinates = projections onto basis vectors.
 This turns analysis into linear algebra of infinite dimension.


 Prerequisite knowledge: For Fourier series the basis eⁱⁿˣ is used.
     Reminder: Euler's formula eⁱˣ = cos x + i sin x.

 Why this section is here


 This section is a bridge between calculus and functional analysis.

 Key idea: functions form a vector space.
 This thought turns analysis into linear algebra of infinite dimension.

 Taylor and Fourier series are expansions of functions in a basis.
 Fourier coefficients are coordinates of the function in this basis.

 Understanding this section makes functional analysis natural.


 Key discovery


 Functions form a vector space.

   • Can be added: (f + g)(x) = f(x) + g(x)
   • Can be multiplied by a number: (cf)(x) = c·f(x)
   • Has a zero element: f(x) = 0

 This means all linear algebra works for functions.
   • Basis
   • Expansion in a basis
   • Scalar product
   • Orthogonality


 One pattern — three realizations
+------------------------+-------------------------+-----------------------+
| FINITE-DIMENSIONAL     | TAYLOR SERIES           | FOURIER SERIES        |
| (ordinary vectors)     |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Space ℝⁿ               | Smooth functions        | Periodic functions    |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Basis: e₁, e₂, ..., eₙ | Basis: 1, x, x², x³, ... | Basis: eⁱⁿˣ (n ∈ ℤ)   |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Vector v = Σ vᵢeᵢ      | f(x) = Σ aₙxⁿ           | f(x) = Σ cₙeⁱⁿˣ       |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Coefficient vᵢ = v·eᵢ  | aₙ = f⁽ⁿ⁾(0)/n!         | cₙ = ⟨f, eⁱⁿˣ⟩        |
| (scalar product)       | (derivative)            | (integral)           |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+
|                        |                         |                       |
| Dimension: n           | Dimension: ∞            | Dimension: ∞          |
|                        |                         |                       |
+------------------------+-------------------------+-----------------------+

 Scalar product of functions


 For vectors: ⟨u, v⟩ = Σᵢ uᵢvᵢ

 For functions:  ⟨f, g⟩ = ∫ f(x)g̅(x) dx   ← sum is replaced by integral.

 (For complex functions we take the conjugate g̅, so that ⟨f,f⟩ ≥ 0)

 Orthogonality: ⟨f, g⟩ = 0

 Important: This scalar product turns functions into a Hilbert
 space L². The entire construction of Fourier series is an application
 of orthogonal projections in an infinite-dimensional Hilbert space.

 Fact: functions eⁱⁿˣ are orthogonal to each other.
       ⟨eⁱᵐˣ, eⁱⁿˣ⟩ = ∫₋π^π eⁱ⁽ᵐ⁻ⁿ⁾ˣ dx = 0  for m ≠ n

 Therefore Fourier coefficients are found in the same way as in the finite-dimensional case:
   cₙ = ⟨f, eⁱⁿˣ⟩ / ⟨eⁱⁿˣ, eⁱⁿˣ⟩  (projection onto basis vector)


 Comparison: local vs global
+------------------------+----------------------------+
| TAYLOR                 | FOURIER                    |
+------------------------+----------------------------+
| Expansion AROUND POINT | Expansion OVER ENTIRE      |
| (local information)    | PERIOD (global information)|
+------------------------+----------------------------+
| Coefficients from      | Coefficients from          |
| DERIVATIVES at point   | INTEGRALS over period      |
+------------------------+----------------------------+
| Requires infinite      | Works even for             |
| differentiability      | discontinuous functions.   |
+------------------------+----------------------------+
| Application:           | Application:               |
| • Approximate calc.    | • Signal analysis          |
| • Behavior analysis    | • Sound/image processing   |
| • Solving DEs by series| • Compression (JPEG, MP3)  |
+------------------------+----------------------------+

 Concrete example: pressure pulsations in a pipeline


 Problem: A pump creates pressure pulsations. A sensor takes a signal p(t).
 Question: what frequencies are present? Is there resonance with the pipe?

 Signal from sensor (conditionally):

   p(t) |    ╱╲    ╱╲    ╱╲    ╱╲
        |   ╱  ╲  ╱  ╲  ╱  ╲  ╱  ╲   ← main pump frequency
        |  ╱~~~~╲╱~~~~╲╱~~~~╲╱~~~~╲  ← "ripple" on peaks
        |--------------------------→ t

 Fourier expansion:

   p(t) = p₀ + A₁sin(ωt) + A₂sin(2ωt) + A₃sin(3ωt) + ...

   • p₀ = average pressure (constant component)
   • ω = pump rotation frequency (fundamental harmonic)
   • 2ω, 3ω, ... = higher harmonics ("ripple")

 Spectrum (amplitudes):

   |Aₙ| | █
        | █
        | █  █
        | █  █  █
        | █  █  █  █
        |-----------------→ n (harmonic number)
          2  3  4

 What the spectrum gives:
   • Peak at frequency 47 Hz → this is the pump shaft rotation frequency
   • Peak at 94 Hz (2×47) → two-bladed impeller
   • Unexpected peak at 120 Hz → resonance with pipe's natural frequency.

 Conclusion: Fourier turns "mush" in time into a clear picture by frequencies.


 Formulas (for calculations)


 Taylor around a:
   f(x) = f(a) + f'(a)(x−a) + f''(a)(x−a)²/2! + f'''(a)(x−a)³/3! + ...

 Important series (a = 0):
   eˣ = 1 + x + x²/2! + x³/3! + ...
   sin x = x − x³/3! + x⁵/5! − ...
   cos x = 1 − x²/2! + x⁴/4! − ...
   1/(1−x) = 1 + x + x² + x³ + ...  (|x| < 1)

 Fourier:
   f(x) = Σₙ cₙ eⁱⁿˣ,  where  cₙ = (1/2π) ∫₋π^π f(x) e⁻ⁱⁿˣ dx


 Magic of Fourier: convolution ↔ multiplication


 Convolution — the most important operation in signal processing:

   (f ∗ g)(t) = ∫ f(τ) g(t − τ) dτ

 Meaning: "smearing" function f with "kernel" g
   • Signal filtering
   • Smoothing (Gaussian blur)
   • Response of linear system

 Problem: Convolution — complex operation (integral over all shifts)

 Convolution theorem:
 +------------------------------------------------------+
 |                                                      |
 | F[f ∗ g] = F[f] · F[g]                               |
 |                                                      |
 | Fourier transform turns convolution into multiplication. |
 |                                                      |
 +------------------------------------------------------+

 Visualization:

   Time domain                  Frequency domain
   (complex)                    (simple)

      f(t), g(t)      --F--→       F(ω), G(ω)
          |                            |
          | convolution                | multiplication
          ↓                            ↓
      (f ∗ g)(t)      ←-F⁻¹-      F(ω) · G(ω)

 Practical significance:
   Instead of complex integral (O(n²)) we do:
   1. FFT of input    — O(n log n)
   2. Multiplication  — O(n)
   3. Inverse FFT     — O(n log n)
   Total: O(n log n) instead of O(n²) — huge gain.

 Application examples:
   • Image processing (filters in Photoshop)
   • Speech recognition
   • Solving differential equations
   • Neural networks (convolutional layers)
   • Multiplication of large numbers (Schönhage–Strassen algorithm)

 Inverse theorem:
   F[f · g] = F[f] ∗ F[g]    (multiplication ↔ convolution in reverse direction)

 Deep meaning:
   Fourier transform is an isomorphism between two algebras:
   (functions, convolution) ≅ (functions, multiplication)
   Complex structure in one world = simple in another.


 Where it leads


 Functional analysis: study of infinite-dimensional spaces of functions
   Hilbert space L² = {f: ∫|f|² < ∞} with scalar product

 Quantum mechanics: state ψ ∈ L², observables — operators
   Expansion of ψ in eigenfunctions = superposition of states

 Signal processing: FFT (fast Fourier transform)
   O(n log n) instead of O(n²) — revolution in computations

 Representation theory: basis eⁱⁿˣ = representation of group U(1).
   Generalization to other groups → harmonic analysis


-------------------------------------------------------------------------------
Series showed: functions are points in infinite-dimensional space.
Now we need a theory of such spaces. What does "norm of a function" mean?
When does a series converge? Which operators are continuous?

Functional analysis is linear algebra in infinite dimension.
All the same (norms, scalar products, projections), but with new effects.
-------------------------------------------------------------------------------

===============================================================================
Functional analysis — infinite-dimensional spaces
===============================================================================

 Main idea: functions are "points" in infinite-dimensional space


 This section is not about new formulas. It's about changing perspective.

 In school: function f(x) = x² is a "rule", formula, graph.

 New view: function f is a point in the space of all functions.

-------------------------------------------------------------------------------

 Analogy: finite → infinite

   In ℝ³ a point is given by 3 coordinates:

       v = (v₁, v₂, v₃)    — three numbers determine a vector

   Function f on [0,1] is given by infinitely many coordinates:

       f = (f(0), f(0.01), f(0.02), ..., f(0.99), f(1))

   Each value f(t) is a "coordinate" of the function in "direction t".

       y
       ↑     ╭--╮
       |    ╱    ╲
       |   ╱      ╲
       |  ╱        ╲     f(t)
       | ╱          ╲
       +-----------------→ t
          0.5    1

   This curve is not a graph. It's a single point f in infinite-dimensional space.


 Why this is useful


 If functions are points of a space, then:

   +------------------------+----------------------------------------------+
   | FINITE-DIMENSIONAL     | INFINITE-DIMENSIONAL (functions)             |
   +------------------------+----------------------------------------------+
   | Vector v ∈ ℝⁿ          | Function f ∈ L²                              |
   | Length ‖v‖ = √(Σvᵢ²)    | Norm ‖f‖ = √(∫|f|²dx)                       |
   | Distance ‖v−w‖         | Distance ‖f−g‖ between functions             |
   | Angle cos θ = (v·w)/‖v‖‖w‖ | "Angle" via ⟨f,g⟩ = ∫fg dx              |
   | Orthogonality v⊥w      | Orthogonality ⟨f,g⟩ = 0                     |
   | Basis {e₁,...,eₙ}      | Basis {sin(nx), cos(nx)} or {eⁱⁿˣ}          |
   | Decomposition v = Σvᵢeᵢ | Fourier series f = Σcₙeⁱⁿˣ                 |
   | Projection onto subsp. | Best approximation (least squares)          |
   | Linear operator A      | Differential operator d/dx                  |
   | Eigenvalues            | Spectrum of operator (resonances)           |
   +------------------------+----------------------------------------------+

 All of linear algebra works for functions.
 But there are subtleties: infinity creates new effects (see below).


 Traps of infinite-dimensionality — where intuition from ℝⁿ breaks


 +--------------------------+-----------------+-------------------------+
 | Property                 | In ℝⁿ           | In L² / ℓ²              |
 +--------------------------+-----------------+-------------------------+
 | Closed ball              | Compact         | not compact.            |
 | {‖x‖ ≤ 1}                | (Heine–Borel)   | (infinite seq.          |
 |                          |                 | without conv. subseq)   |
 +--------------------------+-----------------+-------------------------+
 | All norms                | Equivalent      | not equivalent.         |
 |                          |                 | ‖f‖₁ ≠ ‖f‖₂ ≠ ‖f‖_∞     |
 +--------------------------+-----------------+-------------------------+
 | Convergence xₙ → x       | By any norm     | Different convergences. |
 |                          | the same        | Pointwise ≠ in norm     |
 +--------------------------+-----------------+-------------------------+
 | Orthogonal basis         | FINITE          | Countable or uncountable|
 |                          |                 | (sin, cos, ... )        |
 +--------------------------+-----------------+-------------------------+
 | Operator with eigenval.  | Diagonalizable  | May not have eigenvect. |
 |                          | (for symm.)     | Spectrum ≠ eigenvalues  |
 +--------------------------+-----------------+-------------------------+

 Main thought: In infinite-dimensional space there is much "freedom", and
 pathologies impossible in ℝⁿ become the norm. Functional analysis teaches
 to recognize when finite-dimensional intuition works, and when it doesn't.


 Why functional analysis is needed


 Linear algebra works with ℝⁿ — finite-dimensional spaces.
 But spaces of functions are infinite-dimensional.

 Functional analysis = linear algebra + analysis + topology
                       for infinite-dimensional spaces

 Applications:
   • Quantum mechanics (states = vectors in L²)
   • Differential equations (operator methods)
   • Signal processing (Fourier transform)
   • Machine learning (kernel methods, RKHS)


 Hierarchy of spaces


   +---------------------------------------------------------------------+
   |                                                                     |
   |  Vector space                                                       |
   |         |                                                           |
   |         | + norm ‖·‖                                                |
   |         ▼                                                           |
   |  Normed space                                                       |
   |         |                                                           |
   |         | + completeness (all Cauchy converge)                      |
   |         ▼                                                           |
   |  Banach space                                                       |
   |         |                                                           |
   |         | + norm from scalar product: ‖x‖ = √⟨x,x⟩                  |
   |         ▼                                                           |
   |  Hilbert space                                                      |
   |                                                                     |
   +---------------------------------------------------------------------+


 Critical difference from the finite-dimensional case


 In ℝⁿ: X compact ⟺ X closed and bounded (Heine–Borel theorem)

 In infinite-dimensional space this is false.

   Unit ball B = {f ∈ L² : ‖f‖ ≤ 1}:
     • Closed ✓
     • Bounded ✓
     • not compact. ✗

 Why: sequence eₙ = (0,...,0,1,0,...) with one in the n-th place
 lies in the unit ball, but has no convergent subsequence
 (‖eₙ − eₘ‖ = √2 for n ≠ m).

 Consequence for an engineer:
   • In ℝⁿ: minimum of a continuous function on a compact is attained
   • In L²: minimum of a functional may not be attained on closed bounded
   • Therefore PDE are harder than ODE: special methods are needed (weak solutions)

 Compactness in the infinite-dimensional case:
   Additional conditions are needed — for example, equicontinuity
   (Arzelà-Ascoli theorem) or weak compactness.


 Norm — generalization of length


 Norm ‖·‖: V → ℝ must satisfy:

 +-------------------------+---------------------------------------------+
 | AXIOM                   | MEANING                                     |
 +-------------------------+---------------------------------------------+
 | ‖x‖ ≥ 0                 | Length is non-negative                      |
 | ‖x‖ = 0 ⟺ x = 0         | Only the zero vector has zero length        |
 | ‖αx‖ = |α|·‖x‖          | Scaling                                     |
 | ‖x+y‖ ≤ ‖x‖+‖y‖         | Triangle inequality                         |
 +-------------------------+---------------------------------------------+

 Norm induces a metric: d(x,y) = ‖x−y‖


 Examples of norms and spaces
+-------------------+-------------------------+-------------------------------+
| SPACE             | NORM                    | COMPLETENESS                  |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖₂ = √(Σxᵢ²)          | Yes (Banach and Hilbert)      |
| (Euclidean)       |                         |                               |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖₁ = Σ|xᵢ|            | Yes (Banach)                  |
| (Manhattan)       |                         |                               |
+-------------------+-------------------------+-------------------------------+
| ℝⁿ                | ‖x‖_∞ = max|xᵢ|         | Yes (Banach)                  |
| (sup-norm)        |                         |                               |
+-------------------+-------------------------+-------------------------------+
| C[a,b]            | ‖f‖_∞ = max|f(x)|       | Yes (Banach)                  |
| (cont. functions) |                         |                               |
+-------------------+-------------------------+-------------------------------+
| Lᵖ[a,b]           | ‖f‖_p = (∫|f|ᵖ)^(1/p)   | Yes (Banach)                  |
| (1 ≤ p < ∞)       |                         | When p=2: Hilbert             |
+-------------------+-------------------------+-------------------------------+
| L²[a,b]           | ‖f‖₂ = √(∫|f|²)         | Yes (Hilbert)                 |
| (square integr.)  | ⟨f,g⟩ = ∫f·g̅            | Main in quantum mechanics     |
+-------------------+-------------------------+-------------------------------+
| ℓ² (sequences)    | ‖x‖ = √(Σ|xₙ|²)         | Yes (Hilbert)                 |
|                   |                         | Infinite-dimensional analog ℝⁿ|
+-------------------+-------------------------+-------------------------------+

 Important: elements of Lᵖ are not functions.


 Elements of Lᵖ are equivalence classes of functions.
 Two functions f and g are equivalent if f = g almost everywhere
 (i.e. differ only on a set of measure zero).

 Consequence: For f ∈ L² the value f(x₀) at a specific point is not defined.

   • One can change f at a single point — it's the same function in L²
   • "f(0) = 3" has no meaning for an element of L²
   • The integral ∫f is defined, but the value f(x) is not.

 When one can speak of values:
   • If f is continuous (then there is a unique continuous representative)
   • Through embedding theorems (Sobolev): W^{1,p} ⊂ C when p > n

 Where this is critical:
   • Boundary conditions in PDE: u|_{∂Ω} = g requires "trace" of function
   • Delta function δ(x−a) "selects" value — but this is not f(a).


 Unit ball — "portrait" of the norm


 Unit ball B = {x : ‖x‖ ≤ 1} shows the geometry of the norm.
 The shape of the ball determines what the norm considers "close to zero".

   L¹ (Manhattan)           L² (Euclidean)        L∞ (sup-norm)
   ‖x‖₁ = |x| + |y|         ‖x‖₂ = √(x²+y²)       ‖x‖_∞ = max(|x|,|y|)

          ◆                      ●●●                  ■■■■■■■
         ◆ ◆                   ●●   ●●                ■     ■
        ◆   ◆                 ●       ●               ■     ■
       ◆     ◆               ●         ●              ■     ■
      ◆-------◆             ●-----------●            ■-------■
       ◆     ◆               ●         ●              ■     ■
        ◆   ◆                 ●       ●               ■     ■
         ◆ ◆                   ●●   ●●                ■     ■
          ◆                      ●●●                  ■■■■■■■

      Diamond                  Circle                Square
   "Taxi in Manhattan"       "Usual distance"      "Chess king"


 Interpretation:

   • L¹: "How many blocks to walk?" — sum of deviations along axes
         Points (1,0), (0,1), (0.5, 0.5) are equidistant from zero.

   • L²: "As the crow flies" — usual Euclidean distance
         Pythagoras: diagonal √2, not 2

   • L∞: "Worst case" — maximum deviation along any axis
         Points (1,0), (1,1), (1, 0.5) are equidistant from zero.


 General case Lᵖ: ‖x‖_p = (|x|ᵖ + |y|ᵖ)^(1/p)

   p = 1:   diamond (sharp angles)
   p = 2:   circle
   p → ∞:   square

   As p increases, the ball "inflates" from diamond to square through circle.

 Application:
   • L¹ in optimization: gives sparse solutions (LASSO regression)
   • L² in physics: energy, least squares
   • L∞ in engineering: control of maximum deviation


 Completeness — key property
+------------------------+--------------------------------------------+
| CONCEPT                | DEFINITION / Example                       |
+------------------------+--------------------------------------------+
| Fundamental (Cauchy)   | ∀ε>0 ∃N: m,n>N ⇒ ‖xₘ−xₙ‖<ε                |
| sequence               | "Terms approach each other"                |
+------------------------+--------------------------------------------+
| Complete space         | Every fund. seq. converges in this space   |
+------------------------+--------------------------------------------+
| Example of incompl.    | ℚ: seq. 3, 3.1, 3.14, 3.141... → π ∉ ℚ    |
+------------------------+--------------------------------------------+
| Completion             | ℚ → ℝ (added all limits)                   |
|                        | C[0,1] with ‖·‖₂ → L²[0,1]                 |
+------------------------+--------------------------------------------+

 Why completeness is needed
+--------------------------------+-------------------------------------------+
| APPLICATION                    | WHY COMPLETENESS IS NEEDED                |
+--------------------------------+-------------------------------------------+
| Iteration method xₙ₊₁ = f(xₙ)  | Guarantee that the limit exists           |
+--------------------------------+-------------------------------------------+
| Fourier series                 | Σcₙeⁱⁿˣ converges in L², not pointwise   |
+--------------------------------+-------------------------------------------+
| Banach fixed point theorem     | Contraction in complete space has fix. pt.|
+--------------------------------+-------------------------------------------+
| Solving DE by Picard method    | Iterations converge to solution           |
+--------------------------------+-------------------------------------------+

 Completeness vs closedness — don't confuse.


 Closedness is a property of a subset (within some space)
 Completeness is a property of a space (in itself)

 +-----------------------------------------------------------------------+
 | Key example: ℚ (rational numbers)                                     |
 |                                                                       |
 | • ℚ is closed IN itself (as a topological space)                      |
 | • ℚ is not complete. (seq. 3, 3.1, 3.14... → π ∉ ℚ)                  |
 |                                                                       |
 | Closedness says: "contains all its limit points"                      |
 | But if the limit point doesn't exist in the space — it doesn't count. |
 +-----------------------------------------------------------------------+

 Connection:
   • Closed subset of a complete space is complete
   • Complete subset of a metric space is closed

 Example for an engineer:
   Space C[0,1] with norm ‖f‖₂ = √∫|f|² is not complete.
   The limit may be a discontinuous function (not in C[0,1]).
   Completion: L²[0,1] — already complete (with Lebesgue integral).

 Why this is important:
   With Riemann integral the space of functions is "holey", like ℚ.
   L² is complete only with Lebesgue integral — that's why Lebesgue is needed.


 Hilbert space

 Definition: Banach + norm from scalar product ‖x‖ = √⟨x,x⟩
+-------------------------------+----------------------------------------------+
| PROPERTY                      | CONSEQUENCE                                  |
+-------------------------------+----------------------------------------------+
| Has scalar product ⟨·,·⟩      | Can speak of angles, orthogonality           |
+-------------------------------+----------------------------------------------+
| Pythagorean theorem           | x⊥y ⇒ ‖x+y‖² = ‖x‖² + ‖y‖²                  |
+-------------------------------+----------------------------------------------+
| Orthogonal complement         | H = M ⊕ M⊥ for closed M                      |
+-------------------------------+----------------------------------------------+
| Orthonormal basis             | x = Σₙ⟨x,eₙ⟩eₙ (generalized Fourier series)  |
+-------------------------------+----------------------------------------------+
| Riesz–Fréchet theorem         | Any functional f(x) = ⟨x,y⟩ for unique y    |
|                               | Consequence: H ≅ H* (isomorphic to dual)     |
+-------------------------------+----------------------------------------------+

 Operators in Hilbert space

 Operator T: H → H is linear if T(αx+βy) = αTx + βTy
+-------------------+-------------------------+-------------------------------+
| TYPE              | DEFINITION              | PROPERTIES                    |
+-------------------+-------------------------+-------------------------------+
| Bounded           | ‖Tx‖ ≤ C‖x‖ for all x   | ⟺ continuous                  |
|                   | ‖T‖ = sup{‖Tx‖: ‖x‖=1}  | Operator norm                 |
+-------------------+-------------------------+-------------------------------+
| Compact           | Image of bounded set    | "Almost finite-dimensional"   |
|                   | is precompact           | Spectrum is discrete + 0      |
+-------------------+-------------------------+-------------------------------+
| Self-adjoint      | ⟨Tx,y⟩ = ⟨x,Ty⟩         | Eigenvalues are real          |
| (T* = T)          |                         | Eigenvectors are orthogonal   |
+-------------------+-------------------------+-------------------------------+
| Unitary           | ⟨Ux,Uy⟩ = ⟨x,y⟩         | Preserves norm and angles     |
| (U*U = I)         |                         | |λ| = 1 for eigenvalues       |
+-------------------+-------------------------+-------------------------------+
| Projector         | P² = P                  | If P*=P: orthogonal           |
|                   |                         | Projection onto subspace      |
+-------------------+-------------------------+-------------------------------+

 Spectral theory

 Spectrum: σ(T) = {λ∈ℂ: (T−λI) not invertible}
+-----------------+------------------------------------------------+
| PART OF SPECTRUM| DEFINITION                                     |
+-----------------+------------------------------------------------+
| Point σₚ        | λ is eigenvalue: ∃x≠0: Tx=λx                   |
+-----------------+------------------------------------------------+
| Continuous σ_c  | (T−λI) injective, image dense, but not closed  |
+-----------------+------------------------------------------------+
| Residual σ_r    | (T−λI) injective, image not dense              |
+-----------------+------------------------------------------------+

 Why spectrum ≠ eigenvalues (concrete example)


 In the finite-dimensional case (matrices) spectrum = eigenvalues.
 In the infinite-dimensional case this is false.

 Example: Right shift operator on ℓ²

   S: (x₁, x₂, x₃, ...) ↦ (0, x₁, x₂, x₃, ...)

 Eigenvalues: none.
   Let Sx = λx. Then (0, x₁, x₂, ...) = (λx₁, λx₂, λx₃, ...)
   From the first component: 0 = λx₁
   If λ ≠ 0, then x₁ = 0, hence x₂ = 0, ..., x = 0. Contradiction.
   If λ = 0, then (0, x₁, x₂, ...) = 0, hence x = 0. Contradiction.

 Spectrum: σ(S) = {λ : |λ| ≤ 1} — the entire unit disk.
   Because (S − λI) is not invertible for all |λ| ≤ 1.
   When |λ| < 1: image not dense (residual spectrum σ_r).
   When |λ| = 1: image dense, but not closed (continuous spectrum σ_c).

 Moral: In infinite-dimensional space an operator can be non-invertible
 Not because of eigenvectors, but because of "almost eigen" directions.

 Simpler example: Multiplication operator Tf(x) = x·f(x) on L²[0,1]
   Eigenfunctions: none (δ-function not in L²).
   Spectrum: σ(T) = [0,1] — the entire interval (continuous spectrum).
   Physically: this is the position operator in quantum mechanics.

 This is critical in quantum mechanics: the energy spectrum of a particle in a potential
 can be continuous (free particle) or discrete (atom).


 Spectral theorem (for self-adjoint compact operator)
+---------------------------------+------------------------------------------+
| STATEMENT                       | CONSEQUENCE                              |
+---------------------------------+------------------------------------------+
| Spectrum = real eigenvalues     | All λₙ ∈ ℝ                               |
| + possibly 0                    |                                          |
+---------------------------------+------------------------------------------+
| Eigenvectors are orthonormal    | {eₙ} is basis in H                       |
| basis                           |                                          |
+---------------------------------+------------------------------------------+
| T = Σₙλₙ⟨·,eₙ⟩eₙ                 | Decomposition of operator by eigenvect.  |
+---------------------------------+------------------------------------------+

 Why self-adjointness is critical for physics


 Fact: Spectrum of a self-adjoint operator is always real.

 Physical meaning:
   In quantum mechanics observable quantities (energy, momentum, position)
   are represented by self-adjoint operators. The spectrum of the operator is
   the set of possible measurement results.

   Energy must be a real number — we cannot measure
   "complex energy". That is precisely why the Hamiltonian H must be
   self-adjoint: H = H*.

   If an operator is not self-adjoint — its spectrum may be complex,
   and it does not describe an observable physical quantity.

 Conclusion: Self-adjointness is not a mathematical abstraction.
 It is a requirement of physical meaningfulness of measurements.


 Connection with quantum mechanics
+-----------------------------+-----------------------------------------------+
| QUANTUM MECHANICS           | FUNCTIONAL ANALYSIS                           |
+-----------------------------+-----------------------------------------------+
| State of system             | Vector ψ ∈ H, ‖ψ‖ = 1                         |
+-----------------------------+-----------------------------------------------+
| Observable (energy, etc.)   | Self-adjoint operator A                       |
+-----------------------------+-----------------------------------------------+
| Possible measurement results| Spectrum σ(A)                                 |
+-----------------------------+-----------------------------------------------+
| Probability of result λ     | |⟨ψ,eλ⟩|² where Aeλ = λeλ                     |
+-----------------------------+-----------------------------------------------+
| State after measurement     | Projection onto eigen-subspace                |
+-----------------------------+-----------------------------------------------+

 Concrete example: cooling of a rod (heat equation)


 Problem: Metal rod of length L. Ends are maintained at T=0.
 Initial temperature distribution T(x,0) = f(x). How does the rod cool?

 +-------------------------------------------------------------------------+
 |    T=0                                       T=0                        |
 |     |                                         |                         |
 |     ▼         initial T(x,0) = f(x)           ▼                         |
 |   --█████████████████████████████████████████--                         |
 |     x=0                                     x=L                         |
 +-------------------------------------------------------------------------+

 Equation:
   ∂T/∂t = a·∂²T/∂x²     (a — thermal diffusivity)

 Boundary conditions:  T(0,t) = T(L,t) = 0
 Initial condition:  T(x,0) = f(x)

-------------------------------------------------------------------------------
Solution via Eigenfunctions
-------------------------------------------------------------------------------

 Step 1: Find eigenfunctions of operator d²/dx² with given boundary conditions

   d²φ/dx² = λφ,  φ(0) = φ(L) = 0

   Solution: φₙ(x) = sin(nπx/L),  λₙ = −(nπ/L)²,  n = 1, 2, 3, ...

 Step 2: These functions form an orthonormal basis in L²[0,L].

   ⟨φₘ, φₙ⟩ = ∫₀ᴸ sin(mπx/L)·sin(nπx/L) dx = (L/2)·δₘₙ

 Step 3: Expand initial condition in this basis

   f(x) = Σₙ cₙ sin(nπx/L),   cₙ = (2/L)∫₀ᴸ f(x)sin(nπx/L) dx

 Step 4: Each mode decays independently with exponential e^(λₙ·a·t)

   T(x,t) = Σₙ cₙ · e^(−a(nπ/L)²t) · sin(nπx/L)
                ↑                      ↑
             decay               spatial form

-------------------------------------------------------------------------------
 Physical meaning
-------------------------------------------------------------------------------

   • First mode (n=1): τ₁ = L²/(π²a) — slowest decay
   • Higher modes decay faster: τₙ = τ₁/n²
   • After time ~τ₁ only first mode remains (sinusoid)

 Numerical example (copper rod L=1m, a≈1.1×10⁻⁴ m²/s):
   τ₁ = 1²/(π²·1.1×10⁻⁴) ≈ 920 s ≈ 15 minutes

-------------------------------------------------------------------------------

 Moral: Functional analysis is not abstraction.
 Operators, eigenfunctions, basis expansions — these are working
 tools for solving equations of heat conduction, diffusion, oscillations.


 Important theorems of functional analysis
+----------------------------+----------------------------------------------+
| THEOREM                    | FORMULATION and APPLICATION                  |
+----------------------------+----------------------------------------------+
| Banach fixed-point theorem | T contraction in complete (X,d) ⇒ ∃! x: Tx=x |
|                            | Appl: existence of solutions of DE           |
+----------------------------+----------------------------------------------+
| Hahn–Banach                | Functional from subspace extends to entire   |
|                            | space preserving norm                        |
+----------------------------+----------------------------------------------+
| Banach–Steinhaus           | Pointwise bounded family of operators        |
| (uniform boundedness)      | uniformly bounded                            |
+----------------------------+----------------------------------------------+
| Open mapping               | Surjective bounded operator — open mapping   |
+----------------------------+----------------------------------------------+
| Closed graph               | Operator with closed graph is bounded        |
+----------------------------+----------------------------------------------+

 Weak convergence — key to infinite-dimensionality


 In ℝⁿ there is only one way of convergence. In infinite-dimensional — many.

 +--------------------+----------------------------------------------+
 | TYPE OF CONVERGENCE| DEFINITION                                   |
 +--------------------+----------------------------------------------+
 | STRONG (by norm)   | xₙ → x means ‖xₙ − x‖ → 0                    |
 |                    | "Distance to limit tends to zero"            |
 +--------------------+----------------------------------------------+
 | WEAK               | xₙ ⇀ x means f(xₙ) → f(x) for all f ∈ X*    |
 |                    | "All functionals converge"                   |
 +--------------------+----------------------------------------------+
 | WEAK-*             | fₙ ⇀* f means fₙ(x) → f(x) for all x ∈ X    |
 | (in dual)          | "Pointwise convergence of functionals"       |
 +--------------------+----------------------------------------------+

 Relations:
   Strong ⇒ Weak ⇒ Weak-* (converses false)

 Key example: eₙ = (0,...,0,1,0,...) in ℓ²

   • ‖eₙ − eₘ‖ = √2 for n ≠ m — no strong limit
   • BUT: eₙ ⇀ 0 weakly. (for any f ∈ (ℓ²)*, f(eₙ) → 0)

 Why weak convergence is needed:

   • Unit ball not compact in strong topology
   • but compact in weak topology. (Banach–Alaoglu theorem)
   • This allows one to find minima of functionals

 Application in PDE:
   Sequence of approximate solutions uₙ may not have strong
   limit, but have weak limit u — this is a weak solution.


 Riesz representation theorem


 There are two Riesz theorems. Both fundamental.

-------------------------------------------------------------------------------
 Riesz–Fréchet (for Hilbert spaces)
-------------------------------------------------------------------------------

   Any continuous linear functional f: H → ℝ on Hilbert
   space H has form:

           f(x) = ⟨x, y⟩   for unique y ∈ H

   Corollary: H ≅ H* (Hilbert space is isomorphic to its
              dual). This is not true for general Banach spaces.

-------------------------------------------------------------------------------
 Riesz–Markov–Kakutani (for measures)
-------------------------------------------------------------------------------
Any positive linear functional I: C(X) → ℝ on the space
   of continuous functions on a compact X is represented by an integral:

           I(f) = ∫_X f dμ   for a unique measure μ

   Meaning: Every method of "weighted averaging" is an integral.

   Application: If there is an operator that assigns a number to a function
   (and preserves linearity and order) — it is an integral with respect to some measure.


-------------------------------------------------------------------------------
===============================================================================
Measure and Lebesgue integral — the correct notion of "size"
===============================================================================

Functional analysis uses integrals everywhere: norm ‖f‖ = √∫|f|², scalar
product ⟨f,g⟩ = ∫fg. But which integral? The Riemann integral breaks down on
limits — one cannot interchange lim and ∫.

The Lebesgue integral solves this problem. It is based on the notion of measure — a more
general way of measuring the "size" of sets. This is the foundation of probability theory
and modern analysis.

 Measure as a view of space


 Measure answers the question: what "size" does a subset of a space have?

   • On the line ℝ: measure of an interval = its length
   • On the plane ℝ²: measure of a region = its area
   • In ℝ³: measure of a body = its volume
   • In a space of functions: measure = probability

 Lebesgue measure is the "correct" way to measure the size of sets,
 which works even for very complex (fractal, discontinuous) sets.
 Without it, L² spaces and probability would have no rigorous meaning.

 Connection with topology — Hausdorff dimension:
   Fractals have fractional dimension. The Cantor set ⊂ [0,1]:
   • Topological dimension = 0 (totally disconnected)
   • Hausdorff dimension = log(2)/log(3) ≈ 0.631
   This is a measure of "complexity" of a set — how much space it occupies.
   The coastline of Britain: dim_H ≈ 1.25 (more than a line, less than a plane).


 The main reason for transitioning to Lebesgue (for an engineer)


           The Riemann integral breaks down on limits.
           The Lebesgue integral does not.

 This is not an abstraction. This is critical for:

   • Fourier series: lim∫fₙ = ∫lim fₙ — Lebesgue's theorem is needed
   • Solving PDEs: limit of approximate solutions → solution
   • Probability: E[lim Xₙ] = lim E[Xₙ] — dominated convergence

 The Dirichlet function (1 on ℚ, 0 on ℝ\ℚ) is an artificial example.
 The real reason: one needs to interchange limit and integral.
 For Riemann — impossible. For Lebesgue — possible (under certain conditions).


 The problem of the Riemann integral
+-----------------------+-------------------------------------+
| PROBLEM               | DESCRIPTION                         |
+-----------------------+-------------------------------------+
| Dirichlet function    | f(x) = 1 if x∈ℚ, otherwise 0        |
|                       | not Riemann integrable              |
|                       | Though intuitively: ℚ "occupies 0%" |
+-----------------------+-------------------------------------+
| Limit does not        | lim fₙ can be non-integrable,       |
| preserve integrability| even if all fₙ are integrable       |
+-----------------------+-------------------------------------+
| Cannot interchange    | lim∫fₙ ≠ ∫lim fₙ in general         |
| ∫ and lim             |                                     |
+-----------------------+-------------------------------------+

 Measure — axiomatics

 Measure μ: Σ → [0,+∞] on a σ-algebra Σ of subsets of X
+-------------------+----------------------------------------+
| AXIOM             | MEANING                                |
+-------------------+----------------------------------------+
| μ(∅) = 0          | Empty set has zero size                |
+-------------------+----------------------------------------+
| μ(⋃ₙAₙ) = Σₙμ(Aₙ) | Countable additivity (for disjoint)    |
| (Aᵢ∩Aⱼ=∅)         | Size of union = sum of sizes           |
+-------------------+----------------------------------------+

 σ-algebra — family of "measurable" sets
+----------------------------------+-------------------+
| PROPERTY                         | FORMULA           |
+----------------------------------+-------------------+
| Closed under complements         | A ∈ Σ ⇒ X\A ∈ Σ   |
+----------------------------------+-------------------+
| Closed under countable           | Aₙ ∈ Σ ⇒ ⋃ₙAₙ ∈ Σ |
| unions                           |                   |
+----------------------------------+-------------------+
| Contains the whole space         | X ∈ Σ             |
+----------------------------------+-------------------+

 Why precisely σ-algebra? (key question)


 Why can't we restrict ourselves to finite unions (ordinary algebra)?

 Problem: The limit of measurable sets must be measurable.

   Let Aₙ = [0, 1 − 1/n]. Each Aₙ is an interval with length (1 − 1/n).
   Limit: ⋃ₙAₙ = [0, 1) — must also have a measure.

   If the algebra is closed only under finite unions,
   then [0, 1) = ⋃_{n=1}^∞ Aₙ may turn out to be non-measurable.

 Solution: We require closure under countable unions.

 +------------------+---------------------------+
 | STRUCTURE        | CLOSED UNDER              |
 +------------------+---------------------------+
 | Algebra of sets  | Finite ∪, ∩, complements  |
 | σ-algebra        | COUNTABLE ∪, ∩, complements|
 +------------------+---------------------------+

 σ is the standard prefix for "countable" operations (σ-additivity, σ-algebra,
 σ-compactness — all admitting countable versions).

 Deep reason:
   Analysis works with limits, and a limit is a countable construction.
   For integration and limits to be compatible, a σ-algebra is needed.
   Convergence theorems (Levi, Lebesgue) require countable additivity.


 Lebesgue measure on ℝⁿ
+--------------------------+-----------------------------------------+
| SET                      | LEBESGUE MEASURE λ                      |
+--------------------------+-----------------------------------------+
| Interval (a,b) ⊂ ℝ       | b − a (length)                          |
+--------------------------+-----------------------------------------+
| Rectangle in ℝ²          | width × height (area)                   |
+--------------------------+-----------------------------------------+
| Parallelepiped in ℝ³     | a·b·c (volume)                          |
+--------------------------+-----------------------------------------+
| Single point {x}         | 0                                       |
+--------------------------+-----------------------------------------+
| Countable set (ℚ, ℤ)     | 0 (measure zero)                        |
+--------------------------+-----------------------------------------+
| Cantor set C             | 0, though C is uncountable.             |
+--------------------------+-----------------------------------------+
| Non-measurable sets      | Exist (Vitali), but "unnatural"         |
+--------------------------+-----------------------------------------+

 Lebesgue integral
+-----------------+----------------------------------+
| COMPARISON      | RIEMANN vs LEBESGUE              |
+-----------------+----------------------------------+
| Partition       | Riemann: domain [a,b]            |
|                 | Lebesgue: range ℝ                |
+-----------------+----------------------------------+
| Sum             | Riemann: Σf(xᵢ)·Δxᵢ              |
|                 | Lebesgue: Σyⱼ·μ({x: f(x)≈yⱼ})    |
+-----------------+----------------------------------+
| Dirichlet fn    | Riemann: not integrable          |
|                 | Lebesgue: ∫f dλ = 1·0 + 0·1 = 0  |
+-----------------+----------------------------------+

 Construction of Lebesgue integral
+---------------------+------------------------------------+
| STEP                | DEFINITION                         |
+---------------------+------------------------------------+
| 1. Simple function  | s = Σcₖ·χ_{Aₖ} (step function)     |
+---------------------+------------------------------------+
| 2. Integral of      | ∫s dμ = Σcₖ·μ(Aₖ)                  |
| simple              |                                    |
+---------------------+------------------------------------+
| 3. Integral of f ≥ 0| ∫f dμ = sup{∫s dμ: s simple, s≤f}  |
+---------------------+------------------------------------+
| 4. General integral | ∫f dμ = ∫f⁺ dμ − ∫f⁻ dμ            |
|                     | where f⁺=max(f,0), f⁻=max(−f,0)    |
+---------------------+------------------------------------+

 Convergence theorems — main advantage of Lebesgue
+-----------------------------+-----------------------------------------------+
| THEOREM                     | FORMULATION                                   |
+-----------------------------+-----------------------------------------------+
| Monotone convergence        | fₙ↑f (monotonically) ⇒ ∫fₙ → ∫f              |
| (B. Levi)                   |                                               |
+-----------------------------+-----------------------------------------------+
| Dominated convergence       | |fₙ|≤g, ∫g<∞, fₙ→f a.e. ⇒ ∫fₙ→∫f            |
| (Lebesgue)                  | Also: ∫|fₙ−f|→0                              |
+-----------------------------+-----------------------------------------------+
| Fatou                       | fₙ≥0 ⇒ ∫(lim inf fₙ) ≤ lim inf ∫fₙ          |
+-----------------------------+-----------------------------------------------+
| "a.e." (almost everywhere)  | = except for a set of measure zero            |
+-----------------------------+-----------------------------------------------+

 Why these theorems are important
+----------------------------+------------------------------------------+
| SITUATION                  | CONSEQUENCE                              |
+----------------------------+------------------------------------------+
| Series of functions Σfₙ    | Can integrate term by term               |
+----------------------------+------------------------------------------+
| Diff. under integral sign  | d/dt∫f(x,t)dx = ∫∂f/∂t dx (under cond.)  |
+----------------------------+------------------------------------------+
| Do not work for Riemann.   | This is the main advantage of Lebesgue   |
+----------------------------+------------------------------------------+

 Types of convergence — important distinction


 In measure theory there are several types of convergence, and they are not equivalent.

 +-------------------+-------------------------+-------------------------+
 | TYPE OF           | DEFINITION              | WHAT IT MEANS           |
 | CONVERGENCE       |                         |                         |
 +-------------------+-------------------------+-------------------------+
 | Pointwise         | ∀x: fₙ(x) → f(x)        | At each point           |
 |                   |                         | separately              |
 +-------------------+-------------------------+-------------------------+
 | Almost everywhere | fₙ(x) → f(x) for        | Pointwise, except       |
 | (a.e.)            | almost all x            | for a set of measure 0  |
 +-------------------+-------------------------+-------------------------+
 | Uniform           | sup|fₙ(x)−f(x)| → 0     | Equally fast            |
 |                   |  x                      | everywhere              |
 +-------------------+-------------------------+-------------------------+
 | In measure        | μ({|fₙ−f| > ε}) → 0     | Measure of "bad"        |
 |                   | for all ε > 0          | set → 0                 |
 +-------------------+-------------------------+-------------------------+
 | In Lᵖ             | ∫|fₙ−f|ᵖ dμ → 0         | Integral               |
 |                   |                         | error → 0               |
 +-------------------+-------------------------+-------------------------+

 Hierarchy (for finite measure):

   Uniform ⇒ Pointwise ⇒ Almost everywhere ⇒ In measure
       ↓
   In L∞        In Lᵖ ⇒ In measure (but NOT almost everywhere)

 Counterexample: Convergence in measure does not imply convergence almost everywhere.
    "Traveling hump": fₙ = χ_{[k/2ᵐ, (k+1)/2ᵐ]} on [0,1]
    Converges in measure to 0, but at each point a subsequence = 1.


 Lᵖ spaces

 Definition: Lᵖ(X,μ) = {f: ∫|f|ᵖdμ < ∞} / {f=0 a.e.}
+-----------+-----------------------+-----------------------------------------+
| p         | NORM                  | PROPERTIES and APPLICATIONS             |
+-----------+-----------------------+-----------------------------------------+
| p = 1     | ‖f‖₁ = ∫|f|           | Integrable functions                    |
+-----------+-----------------------+-----------------------------------------+
| p = 2     | ‖f‖₂ = √(∫|f|²)       | Hilbert. Quantum mechanics, Fourier     |
|           | ⟨f,g⟩ = ∫fg̅          | Scalar product                          |
+-----------+-----------------------+-----------------------------------------+
| p = ∞     | ‖f‖_∞ = ess sup|f|    | Essentially bounded functions           |
+-----------+-----------------------+-----------------------------------------+

 Key inequalities and theorems
+-------------------------+-------------------------------------+
| RESULT                  | FORMULATION                         |
+-------------------------+-------------------------------------+
| Hölder's inequality     | ‖fg‖₁ ≤ ‖f‖_p·‖g‖_q where 1/p+1/q=1 |
+-------------------------+-------------------------------------+
| Minkowski's inequality  | ‖f+g‖_p ≤ ‖f‖_p + ‖g‖_p             |
+-------------------------+-------------------------------------+
| Riesz–Fischer theorem   | Lᵖ is complete (Banach) space       |
+-------------------------+-------------------------------------+

 Applied example: heat flow through an inhomogeneous wall


 Problem: A wall of thickness L with inhomogeneous structure. Thermal conductivity
 k(x) varies strongly across thickness (different materials, inclusions, cracks).

       T₁                                    T₂
-------------------------------------------------------------------------------
       |░░░|████|░░|████████|░░░░░░|██|░░░░|
       |░░░|████|░░|████████|░░░░░░|██|░░░░|
-------------------------------------------------------------------------------
       x=0                                  x=L

       ░░░ = insulation (k = 0.05 W/(m·K))
       ███ = concrete (k = 1.5 W/(m·K))
       Cracks — breaks in structure

 Thermal resistance:

   R = ∫₀ᴸ dx/k(x)     [m²·K/W]

 Problem: k(x) — discontinuous function with possible "pathologies".

-------------------------------------------------------------------------------
 Why the Lebesgue measure is needed
-------------------------------------------------------------------------------

 1. Discontinuities don't interfere:
    k(x) can have a finite number of discontinuities (layer boundaries).
    The Lebesgue integral "doesn't notice" this — the set of discontinuity points
    has measure zero.

 2. Cracks = set of measure zero:
    Microcracks are "thin" regions with k → ∞ (air).
    If their total "thickness" = 0, they don't affect the integral.

 3. Order of integration can be changed:
    When calculating 2D/3D heat transfer (integrals over area, volume)
    Fubini's theorem guarantees: ∫∫ = ∫(∫).

-------------------------------------------------------------------------------
 Numerical example
-------------------------------------------------------------------------------

 Wall: 3 layers with total thickness 40 cm

   • Plaster: 2 cm,  k = 0.8 W/(m·K)  →  R₁ = 0.02/0.8 = 0.025
   • Brick:    25 cm, k = 0.7 W/(m·K)  →  R₂ = 0.25/0.7 = 0.357
   • Insulation: 10 cm, k = 0.04 W/(m·K) →  R₃ = 0.10/0.04 = 2.500
   • + 3 microcracks (total 0.5 mm)  →  R = 0 (measure zero)

   R_total = ∫₀⁰·⁴⁰ dx/k(x) = R₁ + R₂ + R₃ = 2.88 m²·K/W

   Heat flux: q = ΔT/R = (20−(−10))/2.88 = 10.4 W/m²

-------------------------------------------------------------------------------

 Moral: The Lebesgue measure allows integrating "bad" functions.
 Discontinuities, jumps, singularities on sets of measure zero — not a problem.
 For an engineer: one doesn't need to think about mathematical subtleties in calculations.
 The integral exists for any "reasonable" physical quantity.


-------------------------------------------------------------------------------
Measures — generalization of the concept of "size"
-------------------------------------------------------------------------------

 Idea of measure


 Measure = way to assign "size" to sets

 Length, area, volume, probability — all are examples of measures.

 Measure μ: sets → numbers ≥ 0 (or +∞)


 Axioms of measure


 1. μ(∅) = 0                     Empty set has zero size

 2. μ(A) ≥ 0                     Size is non-negative

 3. σ-additivity:                Size of union of disjoint =
    μ(⊔ᵢAᵢ) = Σᵢ μ(Aᵢ)          sum of sizes
    (for countable number)


 Examples of measures
+----------------------------+------------------------------------------------+
| MEASURE                    | DESCRIPTION                                    |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Lebesgue measure on ℝⁿ     | Ordinary n-dimensional volume                  |
|                            | μ([a,b]) = b − a  (length of interval)         |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Counting measure           | μ(A) = |A| (number of elements)                |
|                            | On ℤ, on finite sets                           |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Probability measure        | μ(Ω) = 1, μ(A) = P(A)                          |
|                            | Measure of whole = 1                           |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Dirac measure δₓ           | δₓ(A) = 1 if x ∈ A, else 0                     |
|                            | "Concentrated at point x"                      |
|                            |                                                |
+----------------------------+------------------------------------------------+
|                            |                                                |
| Haar measure               | Invariant with respect to shifts               |
|                            | On Lie groups (volume in group space)          |
|                            |                                                |
+----------------------------+------------------------------------------------+

 Lebesgue integral


 Ordinary Riemann integral: partition by x, sum f(xᵢ)·Δx

 Lebesgue integral: partition by y, sum y·μ({x: f(x) ≈ y})

 Advantages:
   • Can integrate more "bad" functions
   • Theorems about passing to the limit under the integral sign
   • Natural connection with probability theory

 Formula: ∫f dμ = ∫₀^∞ μ({x: f(x) > t}) dt  (for f ≥ 0)


 Sets of measure zero


 Set A has measure zero: μ(A) = 0

 Examples (in the sense of Lebesgue measure on ℝ):
   • Any point {x}
   • Any countable set (ℚ, ℤ, ℕ)
   • Cantor set (uncountable, but of measure 0!)

 Paradox: ℚ is dense in ℝ, but μ(ℚ) = 0, and μ(ℝ\ℚ) = ∞

 "Almost everywhere" = "except on a set of measure zero"


 Measure and spaces


 Measure is a way to measure size on a space.

 Different spaces — different natural measures:
   • On ℝⁿ: Lebesgue measure (ordinary volume)
   • On a Lie group: Haar measure (invariant under shifts)
   • On a manifold: measure induced by metric

 Integral is "summation over space":
   ∫_M f dμ = "average value of f with respect to measure"

 Probability space = space + measure with μ(Ω) = 1


-------------------------------------------------------------------------------
===============================================================================
Differential Equations — How to Formulate
===============================================================================

 Main Principle


 DEs are not written out of thin air. They are based on conservation laws.

 (And conservation laws, by Noether's theorem, follow from symmetries)

 Formulation algorithm:

   1. Object      → What are we studying? (body, fluid, field)
   2. Process     → What is happening? (flows, heats up, moves)
   3. Elem. volume → Isolate dx, dy, dz, dt
   4. Conservation → What doesn't change? (mass, energy, momentum)
   5. Balance     → Inflow − Outflow = Change → DE.


 Examples: conservation law → equation
+----------------------+-------------------------------------+
| CONSERVATION LAW     | EQUATION                            |
+----------------------+-------------------------------------+
| Mass conservation    | ∂ρ/∂t + ∇·(ρv) = 0  (continuity)    |
+----------------------+-------------------------------------+
| Energy conservation  | ∂T/∂t = α∇²T  (heat conduction)     |
+----------------------+-------------------------------------+
| Momentum conservation| Navier–Stokes equations             |
+----------------------+-------------------------------------+
| Charge conservation  | ∂ρ/∂t + ∇·j = 0                     |
+----------------------+-------------------------------------+
| Newton's second law  | m(d²x/dt²) = F                      |
+----------------------+-------------------------------------+

 Classification of partial differential equations
+-----------------+-------------------------------------+
| TYPE            | EXAMPLE and PHYSICS                 |
+-----------------+-------------------------------------+
|                 |                                     |
| Elliptic        | ∇²u = f  (Poisson equation)         |
|                 | Stationary problems, electrostatics |
|                 |                                     |
+-----------------+-------------------------------------+
|                 |                                     |
| Parabolic       | ∂u/∂t = α∇²u  (heat conduction)     |
|                 | Diffusion, smoothing                |
|                 |                                     |
+-----------------+-------------------------------------+
|                 |                                     |
| Hyperbolic      | ∂²u/∂t² = c²∇²u  (wave)             |
|                 | Wave propagation                    |
|                 |                                     |
+-----------------+-------------------------------------+

 Practical fact


 Practically any DE (Navier–Stokes, Maxwell, heat conduction)
 can be numerically solved in Excel.

   • Each cell = value at one grid point
   • Cell formula = references to neighbors (finite differences)
   • Boundary conditions = constants at edges
   • Iterations → solution

 This is the finite difference method in its simplest form.


-------------------------------------------------------------------------------
Conclusion
-------------------------------------------------------------------------------

 Central idea of the document


 Mathematics is the language of spaces.

 Space = set + structure (way to connect points).

   • Topology studies the shape of space (holes, connectivity)
   • Algebra studies symmetries of space (transformation groups)
   • Analysis studies functions on space (change, extrema)
   • Geometry studies measurements in space (distances, curvature)

 Functors translate between areas, preserving structure.


 Key facts by sections — minimum you need to know


 Below are not questions, but answers. If something is unclear, return to the section.


 Logic

   "From false follows anything" (F → P = T for any P):
   Implication P → Q is false only when P is true and Q is false.
   If P is false, then P → Q is true for any Q.
   Analogy: "If I'm a millionaire, I'll buy you an island" — not lying,
   because I'm not a millionaire.


 Sets

   Bijection ℕ ↔ ℤ:  f(n) = n/2 if n is even, −(n+1)/2 if odd
                   0 ↦ 0, 1 ↦ −1, 2 ↦ 1, 3 ↦ −2, 4 ↦ 2, ...

   Why |ℕ| < |ℝ|:  Cantor's diagonal argument.
   Suppose f: ℕ → [0,1] is a bijection. Construct a number x that
   differs from f(n) in the n-th digit: x ∉ Im(f). Contradiction.


 Groups

   Why (ab)⁻¹ = b⁻¹a⁻¹:
   Check: (ab)(b⁻¹a⁻¹) = a(bb⁻¹)a⁻¹ = aea⁻¹ = aa⁻¹ = e ✓
   Example: put on socks, then shoes → take off shoes, then socks.

   Kernel of homomorphism φ: G → H:
   ker φ = {g ∈ G : φ(g) = eₕ} — everything that maps to neutral.
   Example: φ: ℤ → ℤ/6, k ↦ k mod 6. Then ker φ = 6ℤ = {.,−6,0,6,12,.}


 Topology

   Set that is neither open nor closed:
   [0, 1) in ℝ. Contains boundary point 0, but doesn't contain 1.

   Why mug ≅ donut:
   Both surfaces have one hole (genus 1). Can be continuously
   deformed one into the other without tearing or gluing.

   π₁(S¹) = ℤ:  Loops on a circle are classified by winding number.
   π₁(S²) = 0:  Any loop on a sphere contracts to a point.


 Linear Algebra

   Why det(AB) = det(A)det(B), but det(A+B) ≠ det(A)+det(B):
   Determinant is multiplicative, but NOT additive.
   Counterexample: A = B = I (identity). det(I) = 1.
   det(I+I) = det(2I) = 2ⁿ ≠ 1+1 = 2  (for n > 1).

   Vector that is not an "arrow":
   Function f(x) = x² is a vector in space C[0,1].
   (f+g)(x) = f(x)+g(x), (αf)(x) = αf(x) — axioms are satisfied.


 Manifolds

   Why multiple charts for sphere:
   S² is compact, ℝ² is not. Homeomorphism preserves compactness.
   Therefore, S² ≢ ℝ². Need at least 2 charts (stereographic projections).

   What lives in TₚM:
   Tangent vectors = velocities of curves through p = directions of motion.
   TₚM ≅ ℝⁿ, but these are different spaces for different p.
   v ∈ TₚM and w ∈ TᵧM cannot be added directly — need a connection.


 Differential Forms

   Why d² = 0 is related to ∂² = 0:
   These are dual statements. ∂ acts on chains (regions),
   d acts on forms (integrands). Stokes theorem: ∫_{∂M} ω = ∫_M dω.

   ∂²M = ∅ (boundary of boundary is empty) ⟷ d²ω = 0 (exterior derivative
   twice gives zero). This is the same fact from two sides.

   Stokes unifies classics:
   • dim=1: ∫ₐᵇ f'dx = f(b)−f(a)        (Newton–Leibniz)
   • dim=2: ∫∫ rot F·dA = ∮ F·dr       (Green/Stokes)
   • dim=3: ∫∫∫ div F dV = ∯ F·dS      (Gauss–Ostrogradsky)


 Categories

   Group as category with one object:
   • One object: ●
   • Morphisms: group elements g ∈ G (arrows ● → ●)
   • Composition: group operation g ∘ h = gh
   • Identity morphism: neutral element e
   • All morphisms are invertible (that's what "group" means.)

   Example of functor: π₁: Top* → Grp
   • Objects: spaces with marked point → groups
   • Morphisms: continuous maps → group homomorphisms
   • Composition is preserved: π₁(f ∘ g) = π₁(f) ∘ π₁(g)

|                                                                             |
| Main criterion of understanding:                                            |
|                                                                             |
| You understand mathematics when you see one pattern in different sections:  |
|                                                                             |
|   ker φ (groups) = ker T (lin.alg.) = ker d (forms) = "what collapses"     |
|   G/ker φ ≅ Im φ — everywhere the same isomorphism theorem.                |
|                                                                             |

We encountered complex numbers in Part II as an algebraic construction.
But analysis on ℂ — derivatives, integrals, series is the territory of Part III.
And here something surprising is discovered.

===============================================================================
Complex Analysis — The Magic of Holomorphic Functions
===============================================================================

Complex numbers are algebra. But when we start
differentiating and integrating functions f: ℂ → ℂ, a miracle happens.

 Holomorphy = complex differentiability


 A function f: ℂ → ℂ is holomorphic at point z₀ if the limit exists:

              f(z₀ + h) − f(z₀)
   f'(z₀) = lim ---------------     (h ∈ ℂ, h → 0 from any direction)
            h→0        h

 This is much stronger than differentiability in ℝ².

 Cauchy–Riemann conditions:
   If f(x + iy) = u(x,y) + iv(x,y), then:

   ∂u/∂x = ∂v/∂y    and    ∂u/∂y = −∂v/∂x

   These two equations connect the Re and Im parts of a holomorphic function.

-------------------------------------------------------------------------------
 Why holomorphy is magic
-------------------------------------------------------------------------------

 If f is holomorphic, then automatically:

   • f is infinitely differentiable (all derivatives exist)
   • f is analytic (expands in a power series)
   • f is determined by its values on any curve
   • Integral over a closed contour = 0 (if there are no singularities inside)

 In ℝ: differentiability of f at a point does not guarantee existence of f''
      (or even continuity of f'). In ℂ: one derivative → infinitely many.

 Why? The Cauchy–Riemann conditions are a system of equations that
 "propagates" information about the function in all directions.

-------------------------------------------------------------------------------
 Visualization: what complex functions "look like"
-------------------------------------------------------------------------------

 A complex function f: ℂ → ℂ is a mapping from plane to plane.
 This is a 4D object (2D input + 2D output), difficult to visualize directly.

 Method: grid deformation

   Draw a grid in the z-plane, see where it maps to in the w-plane.

   z-plane                  w = z²               w-plane

   | | | | |                                    ╲ | ╱
   -+-+-+-+-+-        ------------▶              -+-
   | | | | |                                    ╱ | ╲
   -+-+-+-+-+-
   | | | | |              Squares → curvilinear quadrilaterals
                          Right angles → right angles (conformality)

 Examples of mappings

 +---------------------+-------------------------------------------------+
 | FUNCTION            | WHAT WE SEE IN THE PICTURE                      |
 +---------------------+-------------------------------------------------+
 | f(z) = z            | Identity — grid doesn't change                  |
 +---------------------+-------------------------------------------------+
 | f(z) = z²           | Doubling of angles: ray θ → ray 2θ              |
 |                     | Circle |z|=r → circle |w|=r²                    |
 +---------------------+-------------------------------------------------+
 | f(z) = eᶻ           | Vertical x=const → circle |w|=eˣ                |
 |                     | Horizontal y=const → ray arg(w)=y               |
 |                     | Strip 0 < Im(z) < 2π → entire plane (.)       |
 +---------------------+-------------------------------------------------+
 | f(z) = 1/z          | Inversion: large ↔ small                        |
 |                     | |z|>1 → |w|<1, angles change sign              |
 +---------------------+-------------------------------------------------+

-------------------------------------------------------------------------------
 Conformality — the main property of holomorphic functions
-------------------------------------------------------------------------------

 A holomorphic function f(z) preserves angles at points where f'(z) ≠ 0.

 What this means:

   • Two curves intersect at angle α
   • Their images intersect at the same angle α
   • Infinitesimal circles → infinitesimal circles (not ellipses)

 Locally a holomorphic function is a rotation + scaling:

   f(z) ≈ f(z₀) + f'(z₀)·(z − z₀)

   • The factor f'(z₀) = |f'|·eⁱᶿ
   • |f'| — scaling coefficient
   • θ = arg(f') — rotation angle

 Visually: Small squares of the grid → small squares,
            but rotated and scaled (not skewed)

 Exception: At points where f'(z) = 0 (critical points)
    angles can be multiplied. For f(z) = zⁿ at zero: angle × n.

-------------------------------------------------------------------------------
 Cauchy's integral theorem
-------------------------------------------------------------------------------

 If f is holomorphic inside and on a closed contour γ:

   ∮_γ f(z) dz = 0

 Corollary (Cauchy's integral formula):

               ∮   f(ζ)
   f(z) = ----- ·  ------- dζ
          2πi   γ  ζ − z

   The value of the function inside a contour is determined by values on the contour.
   This is as if the temperature inside a room were determined only by the walls.

-------------------------------------------------------------------------------
 Residues — technique for computing integrals
-------------------------------------------------------------------------------
If f has an isolated singularity at point z₀:

   f(z) = ... + a₋₂/(z−z₀)² + a₋₁/(z−z₀) + a₀ + a₁(z−z₀) + ...
                               ↑
                          Residue = a₋₁

 Residue theorem:

   ∮_γ f(z) dz = 2πi · Σ Res(f, zₖ)
                       zₖ inside γ

 Application: Computation of real integrals.

   ∫_{−∞}^{∞} dx/(1+x²) = π    (closing contour in upper half-plane)

   Many integrals impossible in ℝ are trivial in ℂ.


 Connection with topology


 Winding number (winding number):
   How many times does curve γ wind around point z₀?

               ∮    dz
   n(γ, z₀) = --- ·  ------- = integer.
             2πi  γ  z − z₀

   This connects complex analysis with algebraic topology (π₁).

 Example: Proof of Fundamental theorem of algebra (every polynomial
 over ℂ has a root) uses winding number.

-------------------------------------------------------------------------------
 Complex potential — hydro- and aerodynamics
-------------------------------------------------------------------------------

 One of the most beautiful applications of complex analysis — potential
 flow of ideal fluid (or gas at low velocities).

-------------------------------------------------------------------------------
 Why this is needed
-------------------------------------------------------------------------------

 Problem: Find how fluid flows around obstacle.
 Issue: Navier–Stokes equations are complex, no analytical solutions.
 Simplification: If fluid is "ideal" (without viscosity) and flow without vortices,
            problem reduces to one function of complex variable.

-------------------------------------------------------------------------------
 Step 1: What is potential flow
-------------------------------------------------------------------------------

 "Irrotational" means: fluid does not rotate locally.
 Imagine matchstick-boat on water:
   • In ordinary flow: matchstick floats and spins around its axis
   • In irrotational: matchstick floats but does NOT spin (always points north)

 Mathematically: rot v = 0, which means v = ∇φ for some function φ.
 Φ is called velocity potential.

 For incompressible fluid (div v = 0):
   ∇²φ = 0  ← Laplace equation.

-------------------------------------------------------------------------------
 Step 2: Why complex numbers help
-------------------------------------------------------------------------------

 Key fact: If w(z) = φ + iψ is holomorphic, then:
   ∂φ/∂x = ∂ψ/∂y   and   ∂φ/∂y = −∂ψ/∂x  (Cauchy–Riemann conditions)

 Consequence: ∂²φ/∂x² + ∂²φ/∂y² = 0  ← this is Laplace equation.

 Conclusion: Any holomorphic function w(z) automatically gives solution
        of flow equation. No need to solve differential equations.

-------------------------------------------------------------------------------
 Step 3: what φ and ψ mean physically
-------------------------------------------------------------------------------

 Φ — velocity potential:
   Velocity = gradient of potential: vₓ = ∂φ/∂x, vᵧ = ∂φ/∂y
   Lines φ = const — equipotentials (like elevation lines on map)

 Ψ — stream function:
   Lines ψ = const are streamlines (trajectories of fluid particles)
   Fluid flows along these lines, not crossing them.

 Why they are orthogonal:
   Gradient of φ (direction of steepest increase of φ) is perpendicular to
   lines φ = const. But gradient φ = velocity vector. And velocity
   is directed along streamlines ψ = const. Hence, lines ⊥ to each other.

        φ = 3   φ = 2   φ = 1   φ = 0   ← equipotentials (vertical)
           |       |       |       |
    ψ=1 ---+-------+-------+-------+--→  ← streamlines (horizontal)
           |       |       |       |
    ψ=0 ---+-------+-------+-------+--→
           |       |       |       |
    ψ=−1---+-------+-------+-------+--→
           |       |       |       |

   Fluid flows to the right (along ψ = const), crossing equipotentials.


 Examples of complex potentials — with calculations

-------------------------------------------------------------------------------
 Example 1: uniform flow (w = Uz)
-------------------------------------------------------------------------------

   w(z) = Uz = U(x + iy) = Ux + iUy

   Hence: φ = Ux,  ψ = Uy

   Velocity: vₓ = ∂φ/∂x = U,  vᵧ = ∂φ/∂y = 0

   Interpretation: Uniform flow with velocity U to the right.

   Specifically: U = 5 m/s, point z = 2 + 3i (x=2, y=3)
              φ = 5×2 = 10,  ψ = 5×3 = 15
              Velocity = (5, 0) m/s everywhere the same

-------------------------------------------------------------------------------
 Example 2: source at origin (w = (Q/2π) ln z)
-------------------------------------------------------------------------------

   z = re^{iθ},  ln z = ln r + iθ
   w = (Q/2π)(ln r + iθ)

   Hence: φ = (Q/2π) ln r,  ψ = (Q/2π) θ

   Velocity (in polar coordinates):
   vᵣ = ∂φ/∂r = Q/(2πr),  v_θ = 0

   Interpretation: Fluid flows radially outward from point.
                  The farther from source — the slower (velocity ∝ 1/r).

   Specifically: Q = 10 m²/s (discharge per unit depth), r = 2 m
              Velocity = 10/(2π×2) = 0.8 m/s (radially outward)

          ↖  ↑  ↗
        ←    ●    →    Fluid flows out
          ↙  ↓  ↘     radially from center

-------------------------------------------------------------------------------
Example 3: flow around a cylinder (w = U(z + a²/z))
-------------------------------------------------------------------------------

   This is a sum of uniform flow and a dipole.

   Let's verify that |z| = a is a streamline (ψ = 0):

   On the circle z = ae^{iθ}:
   w = U(ae^{iθ} + ae^{−iθ}) = U · 2a cos θ = 2Ua cos θ (purely real)

   Therefore ψ = Im(w) = 0 on the entire circle.
   The circle |z| = a is a streamline. The fluid does not cross it.
   This is the surface of the cylinder.

               →→→→→→→→→→→→
             →  ╭-----╮   →
           →   ╱       ╲    →
          →   |    ●    |    →    Flow around cylinder
           →   ╲       ╱    →
             →  ╰-----╯   →
               →→→→→→→→→→→→

   Specifically: U = 10 m/s, a = 0.5 m, point z = 1 (on x-axis, outside cylinder)
   w = 10(1 + 0.25/1) = 10 × 1.25 = 12.5
   dw/dz = U(1 − a²/z²) = 10(1 − 0.25) = 7.5 m/s (local velocity)

-------------------------------------------------------------------------------
 Superposition: constructing complex flows
-------------------------------------------------------------------------------

 Key idea: The Laplace equation is linear.

   If w₁ and w₂ are solutions, then w₁ + w₂ is also a solution.
   Complex flows = sums of simple ones.

 Example: Source + sink + uniform flow

   w = Uz + (Q/2π) ln(z−a) − (Q/2π) ln(z+a)
       ↑           ↑                  ↑
    flow     source at a      sink at −a

   This gives flow around an oval body.

   →→→   ↗ source       sink ↘   →→→
   →→→ →  ●---------------------●  → →→→
   →→→   ↘                     ↗   →→→


 Joukowski transformation — how wings are calculated


 Problem: We know flow around a cylinder. But a wing is not a cylinder.

 Joukowski's idea (1910): Conformal mapping transforms a circle into a wing.

-------------------------------------------------------------------------------
 Why this works
-------------------------------------------------------------------------------

 A holomorphic function ζ = f(z) has the property of conformality:
   • Preserves angles between curves
   • Streamlines remain streamlines.
   • If w(z) is a potential for a cylinder, then w(f⁻¹(ζ)) is a potential
     for what the cylinder has been transformed into

 Joukowski transformation:

   ζ = z + a²/z

 Step 1: Take a circle |z − z₀| = r (with offset center)

 Step 2: Apply the transformation — obtain a wing profile.

        z-plane                        ζ-plane

           ╭---╮
          ╱  ●  ╲
         | center |        ζ = z + a²/z
          ╲     ╱         -------------→        ╭----------╮
           ╰---╯                               ╱            ╲
          circle with                     ----●--------------╲---
          offset                               ╲            ╱
          center                                ╰----------╯
                                              wing profile
                                              (sharp trailing edge)

-------------------------------------------------------------------------------
 Joukowski's lift theorem
-------------------------------------------------------------------------------

   L = ρ U Γ   (lift force per unit wingspan)

   where: ρ — air density
          U — freestream velocity
          Γ — circulation around the profile

 Specific calculation:

   Data: ρ = 1.2 kg/m³, U = 50 m/s, Γ = 20 m²/s
   L = 1.2 × 50 × 20 = 1200 N/m

   For a wing of length 10 m: L_total = 12000 N = 1.2 tons of lift.

 Where circulation comes from:
   Kutta–Joukowski condition: flow leaves the sharp trailing edge smoothly.
   This fixes the magnitude of circulation — it is not arbitrary.

 Historical significance:
   This is not an abstraction — this is how first airplanes were actually designed.
   Complex analysis literally lifted humanity into the air.


We have considered many structures: groups, topologies, vector spaces,
manifolds, complex numbers. Everywhere there are "objects" and "mappings between
them" (homomorphisms, continuous functions, linear operators).

Categories are a language for describing this general pattern. They allow
seeing analogies between different areas of mathematics as precise statements.

-------------------------------------------------------------------------------
Categories and functors — mathematics about mathematics
-------------------------------------------------------------------------------

           +------------------------------------------------------+
           |                                                      |
           | "Understanding consists in reducing one type of      |
           | reality to another."                                 |
           | — Claude Lévi-Strauss                                |
           |                                                      |
           | Category theory does this literally: functors        |
           | translate structures of one type into structures      |
           | of another.                                          |
           |                                                      |
           +------------------------------------------------------+


===============================================================================
Summary Tables
===============================================================================

 T.1 great correspondence table
+------------+------------+------------+------------+------------+------------+
|            | SET        | GRP        | VECT       | TOP        | MAN        |
|            | sets       | groups     | vect.sps   | topology   | manifolds  |
+------------+------------+------------+------------+------------+------------+
| OBJECTS    | sets       | groups     | sps over F | spaces     | smooth     |
|            |            |            |            |            | manifolds  |
+------------+------------+------------+------------+------------+------------+
| morphism   | function   | homomor-   | linear     | continuous | smooth     |
|            |            | phism      | mapping    | mapping    | mapping    |
+------------+------------+------------+------------+------------+------------+
| ISOMORPHISM| bijection  | isomorphism| isomorphism| homeomor-  | diffeomor- |
|            |            | of groups  | of sps     | phism      | phism      |
+------------+------------+------------+------------+------------+------------+
| INVARIANT  | |A|        | order,     | dim V      | π₁, χ, Hₙ | dim,       |
|            | cardinality| table      |            |            | curvature  |
+------------+------------+------------+------------+------------+------------+
| SUBOBJECT  | subset     | subgroup   | subspace   | subspace   | submanifold|
|            | A ⊆ B      | H ≤ G      | W ⊆ V      | (open/clsd)|            |
+------------+------------+------------+------------+------------+------------+
| QUOTIENT   | A/∼        | G/H        | V/W        | X/∼        | M/G        |
|            |            | (H ⊲ G)   |            |            | (orbits)   |
+------------+------------+------------+------------+------------+------------+
| PRODUCT    | A × B      | G × H      | V ⊕ W      | X × Y      | M × N      |
+------------+------------+------------+------------+------------+------------+
| COPRODUCT  | A ⊔ B      | G * H      | V ⊕ W      | X ⊔ Y      | M ⊔ N      |
|            |            | (free)     | (same)     |            |            |
+------------+------------+------------+------------+------------+------------+
| KERNEL     | —          | ker φ ⊲ G  | ker T ⊆ V  | —          | —          |
+------------+------------+------------+------------+------------+------------+
| IMAGE      | f(A)       | Im φ ≤ H   | Im T ⊆ W   | f(X)       | f(M)       |
+------------+------------+------------+------------+------------+------------+
| INITIAL    | ∅          | {e}        | {0}        | ∅          | ∅          |
+------------+------------+------------+------------+------------+------------+
| TERMINAL   | {*}        | {e}        | {0}        | {*}        | {*}        |
+------------+------------+------------+------------+------------+------------+

 T.2 universal patterns
+------------------------+-----------------------------------------------+
| PATTERN                | MANIFESTATIONS                                |
+------------------------+-----------------------------------------------+
| d² = 0                 | d∘d=0 (forms), ∂∘∂=0 (boundaries),            |
|                        | rot∘grad=0, div∘rot=0                         |
+------------------------+-----------------------------------------------+
| dim = dim ker + dim Im | Linear algebra, groups (Lagrange's theorem),  |
|                        | diff. forms (cohomology)                      |
+------------------------+-----------------------------------------------+
| Duality                | V ↔ V*, G ↔ Ĝ, q ↔ p, points ↔ hyperplanes    |
+------------------------+-----------------------------------------------+
| Local → Global         | Stokes' thm, de Rham thm, bundles             |
+------------------------+-----------------------------------------------+
| Symmetry → Conservation| Noether's theorem: every continuous symmetry  |
|                        | yields a conservation law                     |
+------------------------+-----------------------------------------------+
| Classification         | Finite groups, surfaces, simple algebras      |
+------------------------+-----------------------------------------------+

 T.3 basic principles of the standard
+-------+-----------------------------------------------------------+
| NUMBER| PRINCIPLE                                                 |
+-------+-----------------------------------------------------------+
| 1     | Mathematics — discovery of structure inherent in the act  |
|       | of distinction                                            |
+-------+-----------------------------------------------------------+
| 2     | From ∅ through categorization all mathematics arises      |
+-------+-----------------------------------------------------------+
| 3     | Logic — superstructure over set theory for communication  |
+-------+-----------------------------------------------------------+
| 4     | Proof — path through the graph of set embeddings          |
+-------+-----------------------------------------------------------+
| 5     | Understanding = ability to visualize                      |
+-------+-----------------------------------------------------------+
| 6     | One pattern manifests in all branches                     |
+-------+-----------------------------------------------------------+

 T.4 summary correspondence table between branches
+------------------+----------------------------------------------------------+
| CONCEPT          | REALIZATIONS IN BRANCHES                                 |
+------------------+----------------------------------------------------------+
| Isomorphism      | Set: bijection                                          |
|                  | isomorphism of groups                               |
|                  | isomorphism of spaces                               |
|                  | homeomorphism                                       |
|                  | equivalence of categories                           |
+------------------+----------------------------------------------------------+
| Invariant        | Set: cardinality |A|                                    |
| (what is         | multiplication table                                |
| preserved)       | dimension dim V                                     |
|                  | π₁, χ, Hₙ                                           |
+------------------+----------------------------------------------------------+
| Kernel of        | ker(φ) ⊲ G                                          |
| morphism         | ker(T) ⊆ V                                          |
|                  | ker(d) = closed forms                               |
+------------------+----------------------------------------------------------+
| Duality          | G ↔ Ĝ                                               |
|                  | V ↔ V*                                              |
|                  | Ωᵏ ↔ Ωⁿ⁻ᵏ                                           |
|                  | q ↔ p (symplectic)                                  |
+------------------+----------------------------------------------------------+
| Property d²=0    | Vector analysis: rot∘grad=0, div∘rot=0                  |
|                  | d∘d=0                                               |
|                  | ∂∘∂=0 (homology)                                    |
+------------------+----------------------------------------------------------+


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                    PART IV: APPLIED MATHEMATICS
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Probability — Mathematics of Uncertainty
===============================================================================

Remember the section on Lebesgue measure? We said that the Riemann integral is bad for
limits — a sequence of integrable functions can converge to
a non-integrable one. Lebesgue measure solved this problem by generalizing the notion of "length".

Probability uses the same upgrade. Instead of "length on a line" we measure
"probability of an event" — and this is also a measure, obeying the same axioms.
All of probability theory is measure theory on a space of outcomes.

E[X] = ∫X dP — this is not an analogy with an integral, this is literally a Lebesgue integral
with respect to probability measure P. Everything we know about integrals (monotone
convergence theorem, Fubini, etc.), works here too.

 Probability as a view of space


 Probability theory is measure theory on special spaces.

 +------------------+-----------------------------------------+
 | PROBABILISTIC    | GEOMETRIC                               |
 | TERM             | MEANING                                 |
 +------------------+-----------------------------------------+
 | Sample           | SET of all possible states of the world |
 | space            | Each point ω ∈ Ω — one "scenario"       |
 | Ω                | (what came up, what weather, what path) |
 +------------------+-----------------------------------------+
 | Event A ⊆ Ω      | SUBSET of sample space                  |
 |                  | ("in which scenarios did A occur")      |
 +------------------+-----------------------------------------+
 | Probability P(A) | MEASURE of set A                        |
 |                  | (generalized "volume" of region)        |
 +------------------+-----------------------------------------+
 | Random           | MAPPING X: Ω → ℝ                        |
 | variable X       | (function on sample space)              |
 +------------------+-----------------------------------------+
 | Expected         | INTEGRAL with respect to measure P      |
 | value E[X]       | E[X] = ∫_Ω X(ω) dP(ω)                   |
 +------------------+-----------------------------------------+
 | Independent      | PRODUCT of spaces                       |
 | experiments      | Ω = Ω₁ × Ω₂, P = P₁ × P₂                |
 +------------------+-----------------------------------------+

 Examples:
   • Coin toss: Ω = {heads, tails} — two worlds
   • Random walk: Ω = all possible trajectories
   • Thermal fluctuations: Ω = infinite-dimensional (temperature functions)

 Conclusion: Probability is NOT "chances" in everyday sense.
 This is a rigorous mathematical structure: space + measure.


 Concrete example: roll of two dice


 Sample space:

   Ω = {(1,1), (1,2), (1,3), ..., (6,6)} = {1,...,6} × {1,...,6}
   |Ω| = 36 points

   This is a finite discrete space — a 6×6 "lattice":

       j
     6 | ● ● ● ● ● ●
     5 | ● ● ● ● ● ●
     4 | ● ● ● ● ● ●      Each point ● — one outcome
     3 | ● ● ● ● ● ●      Measure: P({(i,j)}) = 1/36 for all
     2 | ● ● ● ● ● ●
     1 | ● ● ● ● ● ●
       +------------- i
         1 2 3 4 5 6

 Event "sum = 7":

   A = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)}

   This is a subset (diagonal in our "lattice").
   P(A) = |A|/|Ω| = 6/36 = 1/6

 Random variable X = "sum of points":

   X: Ω → ℝ,  X((i,j)) = i + j

   E[X] = Σ X(ω)·P({ω}) = Σᵢⱼ (i+j)/36 = 7

   (Sum of all values with their probabilities = integral with respect to measure P)


 Connection with other sections of the atlas


 Set theory (1.1):
   Ω — set, events — subsets, σ-algebra — system of subsets
   Operations: A ∪ B (or), A ∩ B (and), Aᶜ (not)

 Measure:
   P is a measure with property P(Ω) = 1 (normalization)
   All properties of measure work: countable additivity, continuity

 Functional analysis:
   Random variables with E[X²] < ∞ form a Hilbert space L²(Ω,P)
   Covariance Cov(X,Y) = ⟨X − E[X], Y − E[Y]⟩ — inner product.
   Uncorrelatedness ⟺ orthogonality

 Linear algebra:
   Covariance matrix Σ — positive semidefinite
   Principal components (PCA) = eigenvectors of Σ
   Mahalanobis metric d² = (x−μ)ᵀΣ⁻¹(x−μ) — distance accounting for Σ


 Probability = measure

 Probability theory is measure theory with condition μ(Ω) = 1
+----------------------------+-----------------------------------+
| PROBABILITY SPACE          | (Ω, Σ, P)                         |
+----------------------------+-----------------------------------+
| Ω                          | Sample space                      |
+----------------------------+-----------------------------------+
| Σ                          | σ-algebra of events               |
+----------------------------+-----------------------------------+
| P                          | Probability measure: P(Ω) = 1     |
+----------------------------+-----------------------------------+

 Dictionary: probability ↔ measure theory
+-----------------------------+-----------------------------------------------+
| PROBABILITY                 | MEASURE THEORY                                |
+-----------------------------+-----------------------------------------------+
| Event A                     | Measurable set A ∈ Σ                          |
+-----------------------------+-----------------------------------------------+
| Probability P(A)            | Measure μ(A), normalized μ(Ω)=1               |
+-----------------------------+-----------------------------------------------+
| Random variable X           | Measurable function X: Ω → ℝ                  |
+-----------------------------+-----------------------------------------------+
| Probability density f(x)    | Radon–Nikodym derivative dP/dλ                |
|                             | (ratio of measure P to Lebesgue measure λ)    |
+-----------------------------+-----------------------------------------------+
| Expected value E[X]         | Lebesgue integral ∫X dP                       |
+-----------------------------+-----------------------------------------------+
| Independence A, B           | P(A∩B) = P(A)·P(B)                            |
+-----------------------------+-----------------------------------------------+
| Conditional probability P(A|B) | P(A∩B)/P(B)                                |
+-----------------------------+-----------------------------------------------+

 Kolmogorov axioms (1933)
+----------------------+--------------------------------------+
| AXIOM                | FORMULATION                          |
+----------------------+--------------------------------------+
| Non-negativity       | P(A) ≥ 0 for all A ∈ Σ               |
+----------------------+--------------------------------------+
| Normalization        | P(Ω) = 1                             |
+----------------------+--------------------------------------+
| Countable additivity | P(⋃ₙAₙ) = ΣₙP(Aₙ) for disjoint Aₙ   |
+----------------------+--------------------------------------+

 Consequences of axioms
+---------------------------+-------------------------------+
| PROPERTY                  | FORMULA                       |
+---------------------------+-------------------------------+
| Impossible event          | P(∅) = 0                      |
+---------------------------+-------------------------------+
| Complement                | P(Aᶜ) = 1 − P(A)              |
+---------------------------+-------------------------------+
| Monotonicity              | A ⊆ B ⇒ P(A) ≤ P(B)           |
+---------------------------+-------------------------------+
| Inclusion-exclusion form. | P(A∪B) = P(A) + P(B) − P(A∩B) |
+---------------------------+-------------------------------+

 Random variables and distributions

 Random variable X: Ω → ℝ — measurable function
+-----------------------+---------------------------------------------+
| DISTRIBUTION FUNCTION | F(x) = P(X ≤ x)                             |
+-----------------------+---------------------------------------------+
| Properties of F(x)    | Non-decreasing, F(−∞)=0, F(+∞)=1, right-cont. |
+-----------------------+---------------------------------------------+
| Discrete r.v.         | Countable set of values: P(X=xₖ)=pₖ, Σpₖ=1  |
+-----------------------+---------------------------------------------+
| Continuous r.v.       | F(x)=∫₋∞ˣf(t)dt, f — density, ∫f=1          |
+-----------------------+---------------------------------------------+

 How a histogram becomes a probability density


 This is key intuition for understanding continuous distributions.

-------------------------------------------------------------------------------
Step 1: ordinary histogram
-------------------------------------------------------------------------------

   There are N measurements. We divide the axis into bins (intervals) of width Δx.
   In each bin we count the number of hits nₖ.

   Bar height = nₖ (absolute frequency)

   Problem: if we take a different bin width, the histogram will change.

-------------------------------------------------------------------------------
 Step 2: normalize by bin width
-------------------------------------------------------------------------------

   Bar height = nₖ / (N · Δx)

   Now the height is the frequency density: "how many hits per unit x"

   Dimension: [1/x], for example 1/meter, 1/second, 1/degree

   Important: Bar area = (nₖ/N·Δx) · Δx = nₖ/N = relative frequency
   Sum of areas of all bars = 1

-------------------------------------------------------------------------------
 Step 3: let Δx → 0 and N → ∞
-------------------------------------------------------------------------------

   As Δx → 0 the stepwise histogram transforms into a smooth curve.
   This curve is the probability density function f(x).

                    nₖ
   f(x) = lim  ---------
         Δx→0   N · Δx
         N→∞

   Properties of f(x):
   • f(x) ≥ 0  (frequency cannot be negative)
   • ∫f(x)dx = 1  (sum of all probabilities = 1)
   • P(a ≤ X ≤ b) = ∫ₐᵇ f(x)dx  (area under curve = probability)

-------------------------------------------------------------------------------
 Visualization
-------------------------------------------------------------------------------

   Δx = 1:        Δx = 0.5:       Δx → 0:
    ▄▄▄               ▄▄             ╭--╮
   ▄███▄             ▄██▄           ╱    ╲
  ▄█████▄           ▄████▄        ╱      ╲
  ███████          ████████      ╱        ╲
  -------          --------     ╱----------╲
  coarse           more precise  smooth curve f(x)

-------------------------------------------------------------------------------
 Practical meaning
-------------------------------------------------------------------------------

   For temperature in a pipeline over a year (millions of measurements):

   • Histogram with bins of 1°C gives a rough picture
   • Histogram with bins of 0.1°C — more detailed
   • Density f(T) — ideal limit with infinite data

   f(25°C) = 0.15 [1/°C] means:
   "In a small interval around 25°C the probability ≈ 0.15 · ΔT"

 Important: f(x) is NOT probability (can be > 1)!
        Probability is the area: P = f(x) · Δx


 Most important distributions — discrete
+------------------------+------------------+-----------------------+
| DISTRIBUTION           | P(X=k)           | APPLICATION           |
+------------------------+------------------+-----------------------+
| Bernoulli(p)           | P(1)=p, P(0)=1−p | One yes/no trial      |
+------------------------+------------------+-----------------------+
| Binomial Bin(n,p)      | C(n,k)pᵏ(1−p)ⁿ⁻ᵏ | k successes in n trials|
+------------------------+------------------+-----------------------+
| Poisson Pois(λ)        | e⁻λ·λᵏ/k!        | Rare events           |
+------------------------+------------------+-----------------------+
| Geometric Geom(p)      | (1−p)ᵏ⁻¹·p       | Number of first success|
+------------------------+------------------+-----------------------+

 Most important distributions — continuous
+-------------------------+------------------+-----------------------+
| DISTRIBUTION            | DENSITY f(x)     | APPLICATION           |
+-------------------------+------------------+-----------------------+
| Uniform U(a,b)          | 1/(b−a) on [a,b] | Random point          |
+-------------------------+------------------+-----------------------+
| Exponential Exp(λ)      | λe⁻λˣ, x≥0       | Time until event      |
+-------------------------+------------------+-----------------------+
| Normal N(μ,σ²)          | exp(−(x−μ)²/2σ²) | Errors, growth, finance|
|                         | /(σ√2π)          | EVERYWHERE.           |
+-------------------------+------------------+-----------------------+
| Standard N(0,1)         | e⁻ˣ²/²/√2π       | Z = (X−μ)/σ           |
+-------------------------+------------------+-----------------------+

 Numerical characteristics
+------------------------+---------------------------------------------+
| CHARACTERISTIC         | DEFINITION                                  |
+------------------------+---------------------------------------------+
| Expected value E[X] (μ)| ∫X dP = Σxₖpₖ (discr.) or ∫xf(x)dx (cont.) |
+------------------------+---------------------------------------------+
| Variance Var(X) = σ²   | E[(X−μ)²] = E[X²] − (E[X])²                 |
+------------------------+---------------------------------------------+
| Std. deviation σ       | √Var(X), in the same units as X             |
+------------------------+---------------------------------------------+
| Covariance Cov(X,Y)    | E[(X−μₓ)(Y−μᵧ)] = E[XY] − E[X]E[Y]          |
+------------------------+---------------------------------------------+
| Correlation ρ(X,Y)     | Cov(X,Y)/(σₓσᵧ) ∈ [−1, 1]                   |
+------------------------+---------------------------------------------+
| Moments E[Xⁿ]          | n-th moment about zero                      |
+------------------------+---------------------------------------------+

 Properties of characteristics
+-----------------------------------+------------------------------------+
| PROPERTY                          | FORMULA                            |
+-----------------------------------+------------------------------------+
| Linearity of E                    | E[aX+b] = aE[X]+b                  |
+-----------------------------------+------------------------------------+
| Additivity of E (always)          | E[X+Y] = E[X]+E[Y]                 |
+-----------------------------------+------------------------------------+
| Multiplicativity (independent)    | E[XY] = E[X]E[Y]                   |
+-----------------------------------+------------------------------------+
| Scaling of Var                    | Var(aX+b) = a²Var(X)               |
+-----------------------------------+------------------------------------+
| Additivity of Var (independent)   | Var(X+Y) = Var(X)+Var(Y)           |
+-----------------------------------+------------------------------------+
| General formula                   | Var(X+Y) = Var(X)+Var(Y)+2Cov(X,Y) |
+-----------------------------------+------------------------------------+

 Law of Large Numbers and CLT

 Condition: X₁,X₂,... — i.i.d. (indep. identically distr.) with E[Xᵢ]=μ, Var=σ²
 Sample mean: X̄ₙ = (X₁+...+Xₙ)/n
+---------------------------+---------------------------------------+
| THEOREM                   | FORMULATION and MEANING               |
+---------------------------+---------------------------------------+
| Law of large numbers (LLN)| X̄ₙ → μ as n→∞                        |
|                           | "Sample mean → true mean"             |
|                           | Example: proportion of heads → 0.5    |
+---------------------------+---------------------------------------+
| Central limit             | √n(X̄ₙ−μ)/σ → N(0,1) in distribution  |
| theorem (CLT)             | Corollary: X̄ₙ ≈ N(μ, σ²/n)            |
|                           | "Sum of independent ≈ normal"         |
|                           | Explains why N(μ,σ²) is EVERYWHERE    |
+---------------------------+---------------------------------------+

 Important limitation of CLT


 CLT requires finite variance (σ² < ∞)!

 Distributions with "heavy tails" DO NOT converge to normal:
   • Cauchy: E[X] does not exist, Var = ∞
   • Pareto with α ≤ 2: Var = ∞
   • Stable Lévy distributions

 Application: In finance and reliability analysis heavy tails are critical.
 Normal distribution underestimates the probability of extreme events.

 Sum of Cauchy: mean of n Cauchy numbers is distributed as one Cauchy number.
 (averaging does NOT reduce scatter)


 Conditional probability and Bayes
+-----------------------------+-----------------------------------------------+
| CONCEPT                     | FORMULA / MEANING                             |
+-----------------------------+-----------------------------------------------+
| Conditional probability     | P(A|B) = P(A∩B)/P(B)                          |
|                             | "Probability of A given B"                    |
+-----------------------------+-----------------------------------------------+
| Bayes' theorem              | P(A|B) = P(B|A)·P(A) / P(B)                   |
+-----------------------------+-----------------------------------------------+
| Via total probability       | P(A|B) = P(B|A)P(A) / [P(B|A)P(A)+P(B|Aᶜ)P(Aᶜ)]|
+-----------------------------+-----------------------------------------------+

 Bayes terminology
+-----------------------------+-----------------------------------------------+
| TERM                        | MEANING                                       |
+-----------------------------+-----------------------------------------------+
| P(A) — prior                | Probability BEFORE observing data             |
+-----------------------------+-----------------------------------------------+
| P(A|B) — posterior          | Probability AFTER observing B                 |
+-----------------------------+-----------------------------------------------+
| P(B|A) — likelihood         | How likely is B under hypothesis A            |
+-----------------------------+-----------------------------------------------+

 Example: medical test (false positive paradox)
+-----------------------------+-----------------------------------------------+
| DATA                        | VALUE                                         |
+-----------------------------+-----------------------------------------------+
| P(sick)                     | 0.01 (1% of population is sick)               |
+-----------------------------+-----------------------------------------------+
| P(+|sick)                   | 0.99 (sensitivity 99%)                        |
+-----------------------------+-----------------------------------------------+
| P(+|healthy)                | 0.05 (5% false positives)                     |
+-----------------------------+-----------------------------------------------+
| P(sick|+) = ?               | (0.99·0.01)/(0.99·0.01+0.05·0.99) ≈ 0.17      |
+-----------------------------+-----------------------------------------------+
| Conclusion                  | With + test probability of disease is only ~17%.|
+-----------------------------+-----------------------------------------------+

 Connection of probability with other branches
+---------------------+--------------------------------------------+
| BRANCH              | CONNECTION WITH PROBABILITY                |
+---------------------+--------------------------------------------+
| Lebesgue measure    | Probability = measure with μ(Ω)=1, E[X]=∫X dP|
+---------------------+--------------------------------------------+
| Functional analysis | L²(Ω,P) — space of r.v. with finite Var    |
+---------------------+--------------------------------------------+
| Linear algebra      | Covariance matrix, PCA                     |
|                     | Correlation = cos of angle in L²           |
+---------------------+--------------------------------------------+
| Fourier series      | Characteristic function E[eⁱᵗˣ] = Fourier |
+---------------------+--------------------------------------------+
| Physics             | Stat. mechanics, quantum theory, entropy   |
+---------------------+--------------------------------------------+
| ML / Statistics     | Bayesian inference, regression, testing    |
+---------------------+--------------------------------------------+
| B1 Programming      | PROBABILISTIC PROGRAMMING:                 |
|                     | Variables = distributions, code = model    |
|                     | Languages: Stan, PyMC, Edward, Pyro        |
+---------------------+--------------------------------------------+

 Characteristic function = Fourier transform of density


 Definition:
   φ_X(t) = E[eⁱᵗˣ] = ∫ f(x) eⁱᵗˣ dx

   This is exactly the Fourier transform of density f(x).

 Why this is important:

   Convolution of densities ↔ Multiplication of characteristic functions:

   If X and Y are independent, then Z = X + Y has density f_Z = f_X * f_Y.
   But convolution is complex. And in frequency domain:

       φ_{X+Y}(t) = φ_X(t) · φ_Y(t)

   Multiplication is simpler than convolution — this is the power of Fourier.

 Examples:
 +---------------+----------------------------+
 | DISTRIBUTION  | CHARACTERISTIC FUNCTION    |
 +---------------+----------------------------+
 | N(μ, σ²)      | φ(t) = exp(iμt − σ²t²/2)   |
 | Exp(λ)        | φ(t) = λ/(λ − it)          |
 | Poisson(λ)    | φ(t) = exp(λ(eⁱᵗ − 1))     |
 +---------------+----------------------------+

 Corollary (CLT via Fourier):
   Why does sum of independent r.v. → normal distribution?
   Because φ_N(t) = exp(−t²/2) is the only function satisfying
   φ(t)ⁿ → φ(t) under proper normalization (fixed point).


 Probabilistic programming — bridge between Bayes and code


 In ordinary code: x = 5                      (deterministic value)
 In probab. code: x ~ Normal(μ, σ)            (variable = distribution)

 Example (Stan pseudocode):

   data { vector[N] y; }                      // observations
   parameters { real mu; real sigma; }
   model {
     mu ~ Normal(0, 10);                      // prior distribution
     sigma ~ Cauchy(0, 5);
     y ~ Normal(mu, sigma);                   // data model
   }

 System automatically computes P(μ, σ | y) — posterior.

 Why: Declarative model description instead of manual derivation of Bayes formulas.
 Algorithms (MCMC, variational inference) work "under the hood".


 Applied example: pump station reliability


 Problem: Pump station with 3 pumps. For operation at least 2 out of 3 are needed.
 Each pump fails independently with probability p = 0.1 per year.
 What is the probability of station failure?

         +----------+
    -----| Pump 1   |-----+
        +----------+     |     Need ≥2 working.
         +----------+     |
    -----| Pump 2   |-----+---►  output
         +----------+     |
         +----------+     |
    -----| Pump 3   |-----+
         +----------+

 Model: X ~ Binomial(n=3, p=0.1) — number of failed pumps

   P(X = k) = C(3,k) · 0.1ᵏ · 0.9³⁻ᵏ

   P(X = 0) = 0.9³ = 0.729      (all working)
   P(X = 1) = 3·0.1·0.81 = 0.243   (one failed)
   P(X = 2) = 3·0.01·0.9 = 0.027   (two failed — failure)
   P(X = 3) = 0.001               (all failed — failure)

   P(failure) = P(X ≥ 2) = 0.027 + 0.001 = 0.028 = 2.8%

-------------------------------------------------------------------------------
 Comparison of redundancy schemes
-------------------------------------------------------------------------------

   +---------------------------+--------------+------------------------------+
   | SCHEME                    | P(failure)   | COMMENT                      |
   +---------------------------+--------------+------------------------------+
   | 1 pump (no redundancy)    | 0.1 = 10%    | Base variant                 |
   +---------------------------+--------------+------------------------------+
   | 2 of 2 (both needed)      | 1−0.9² = 19% | Worse. Series connection     |
   +---------------------------+--------------+------------------------------+
   | 1 of 2 (any sufficient)   | 0.1² = 1%    | Parallel connection          |
   +---------------------------+--------------+------------------------------+
   | 2 of 3 (our case)         | 2.8%         | Majority voting              |
   +---------------------------+--------------+------------------------------+

-------------------------------------------------------------------------------
 Exponential distribution — time to failure
-------------------------------------------------------------------------------

   If λ = failure rate (1/year), then time to failure:

   T ~ Exp(λ),  P(T > t) = e^(−λt)

   Mean time to failure: E[T] = 1/λ

   Example: λ = 0.1/year ⇒ E[T] = 10 years — average pump lifetime

-------------------------------------------------------------------------------

 Moral: Probability — a tool for calculating system reliability.
 Independence of events + formulas for connection schemes = redundancy analysis.


-------------------------------------------------------------------------------
Information theory — mathematics of uncertainty and communication
-------------------------------------------------------------------------------

 Information as a view on space


 Information theory studies the space of messages and their probabilities.

 Key idea: messages form a space, and one can measure
 "distance" between probability distributions on this space:

   • Entropy H(X) — "size" of uncertainty
   • KL-divergence D(P||Q) — "distance" between distributions
   • Mutual information I(X;Y) — "intersection" of uncertainties

 This geometry on the space of probabilities — foundation of machine learning.


 Visualization: entropy = measure of disorder


   Initial state after mixing
   (low entropy)                (high entropy)

   +---------+---------+            +-------------------+
   | ● ● ● ● | ○ ○ ○ ○ |            | ○ ● ○ ● ● ○ ○ ● |
   | ● ● ● ● | ○ ○ ○ ○ |     →      | ● ○ ● ○ ○ ● ● ○ |
   | ● ● ● ● | ○ ○ ○ ○ |            | ○ ○ ● ● ○ ● ○ ● |
   | ● ● ● ● | ○ ○ ○ ○ |            | ● ● ○ ○ ● ○ ● ○ |
   +---------+---------+            +-------------------+
    Hot        Cold                  Warm (uniform)
      gas        gas

   Information: "know where which molecules"  →  "don't know where which"
   Entropy:   low (order)            →  high (disorder)
   Process:    irreversible (2nd law of thermodynamics)

   Quantitatively: S = kᵦ ln W, where W — number of ways to arrange molecules
   Mixed state: W much larger → S much larger


 Shannon entropy — measure of uncertainty


 Motivation: How much "information" does a message carry?

   • "The sun rose in the east" — little information (expected)
   • "The sun rose in the west" — much information (unexpected)

 Shannon's idea (1948): Information = measure of unexpectedness

 Definition of entropy:
 +-------------------------------------------------------------+
 |                                                             |
 | H(X) = −Σᵢ pᵢ log₂ pᵢ     (bits)                            |
 |                                                             |
 | H(X) = −Σᵢ pᵢ ln pᵢ       (nats, if natural logarithm)      |
 |                                                             |
 +-------------------------------------------------------------+

 Meaning: Entropy = average number of "yes/no questions" to determine
 the outcome of random variable X.

 Examples:

 +-----------------------+------------------+--------------------------+
 | DISTRIBUTION          | ENTROPY          | INTUITION                |
 +-----------------------+------------------+--------------------------+
 | Coin (½, ½)           | H = 1 bit        | One question: "heads?"   |
 +-----------------------+------------------+--------------------------+
 | Die (⅙, ⅙, ..., ⅙)    | H = log₂6 ≈ 2.58 | ~2.58 questions on avg.  |
 +-----------------------+------------------+--------------------------+
 | Deterministic (1,0,0) | H = 0            | No uncertainty           |
 +-----------------------+------------------+--------------------------+
 | Biased (0.99,0.01)    | H ≈ 0.08 bit     | Almost always known      |
 +-----------------------+------------------+--------------------------+

 Properties of entropy:
   • H(X) ≥ 0 (non-negativity)
   • H(X) = 0 ⟺ X is deterministic (probability 1 at one outcome)
   • H(X) is maximal for uniform distribution (max = log n)
   • H(X,Y) ≤ H(X) + H(Y), equality for independence

 Differential entropy (for continuous distributions):

   h(X) = −∫ f(x) ln f(x) dx

   Important: This is NOT a direct generalization of discrete entropy.
     • h(X) can be negative (e.g., for narrow distributions)
     • h(X) depends on units of measurement (scaling)
     • For normal: h(X) = ½ ln(2πeσ²), negative when σ² < 1/(2πe)

   Engineers are often confused: discrete H(X) ≥ 0, but diff. h(X) ∈ ℝ.


 Connection with thermodynamic entropy


 Thermodynamics (Boltzmann, ~1870):

   S = kᵦ ln W

   where W — number of microstates, kᵦ — Boltzmann constant

 Information theory (Shannon, 1948):

   H = −Σ pᵢ ln pᵢ

 These are the same. (up to the constant kᵦ)

 +-------------------------------------------------------------------------+
 | PHYSICS                     | INFORMATION THEORY                        |
 +-----------------------------+-------------------------------------------+
 | System entropy S            | Amount of unknown information H           |
 +-----------------------------+-------------------------------------------+
 | 2nd law: S increases        | Information is lost during transmission   |
 +-----------------------------+-------------------------------------------+
 | Heat death                  | Maximum uncertainty                       |
 +-----------------------------+-------------------------------------------+
 | Maxwell's demon             | Information has thermodynamic cost        |
 +-----------------------------+-------------------------------------------+

 Landauer's principle (1961):
   Erasing 1 bit of information requires at least kᵦT ln 2 energy
   → Information is physical.


 Mutual information and communication channel


 Conditional entropy:
   H(Y|X) = "uncertainty of Y, given X is known"
   H(Y|X) = Σₓ p(x) H(Y|X=x) = −Σₓ,ᵧ p(x,y) log p(y|x)

 Mutual information:
 +-------------------------------------------------------------------------+
 |                                                                         |
 |   I(X;Y) = H(X) + H(Y) − H(X,Y) = H(X) − H(X|Y) = H(Y) − H(Y|X)         |
 |                                                                         |
 |   How much information X and Y have in common                           |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Visualization (Venn diagram for entropies):

        +---------------------------------------+
        |               H(X,Y)                  |
        |    +-----------------------+          |
        |    |         ╭-----╮       |          |
        |    |   H(X)  |I(X;Y)  H(Y) |          |
        |    |         ╰-----╯       |          |
        |    +-----------------------+          |
        +---------------------------------------+

        H(X|Y)    I(X;Y)    H(Y|X)
        ←-----→   ←----→    ←-----→

 Shannon's channel theorem:
   Channel capacity: C = max I(X;Y)
   At rates < C transmission without errors is possible.


 Kullback–Leibler divergence


 KL-divergence (relative entropy):

   D_KL(P ∥ Q) = Σᵢ pᵢ log(pᵢ/qᵢ)

 Meaning: "Distance" from distribution Q to distribution P
   (how many bits are lost when using Q instead of P)

 Properties:
   • D_KL ≥ 0 (Gibbs' inequality)
   • D_KL = 0 ⟺ P = Q
   • NOT symmetric: D_KL(P∥Q) ≠ D_KL(Q∥P) in general
   • Does NOT satisfy triangle inequality

 Applications:
   • Machine learning: loss function for classification
   • Variational inference: approximation of complex distributions
   • Statistics: goodness-of-fit tests, model selection


 Coding and compression


 Shannon's source coding theorem:
   Minimum average code length = H(X)
   Cannot compress better than to H(X) bits per symbol.

 Example: English text
   Uniformly: log₂(26) ≈ 4.7 bits/letter
   Actually: H ≈ 1.0-1.5 bits/letter (due to frequency imbalance)
   → Can compress by ~3 times.

 Optimal codes:
   • Huffman code — optimal prefix code
   • Arithmetic coding — approaches H(X)

 Connection with spaces:
   The set of all probability distributions on n outcomes —
   is an (n−1)-dimensional simplex:  Δⁿ⁻¹ = {(p₁,...,pₙ): Σpᵢ=1, pᵢ≥0}
   Entropy H is a smooth function on this simplex.


 Connection of information theory with other areas


 +--------------------+------------------------------------------------+
 | AREA               | CONNECTION                                     |
 +--------------------+------------------------------------------------+
 | Thermodynamics     | S = kᵦH (entropy = informational entropy)      |
 +--------------------+------------------------------------------------+
 | Statistics         | Fisher information, ML estimates               |
 +--------------------+------------------------------------------------+
 | Machine learning   | Cross-entropy loss, VAE, information bottleneck|
 +--------------------+------------------------------------------------+
 | Coding theory      | Error-correcting codes, compression            |
 +--------------------+------------------------------------------------+
 | Cryptography       | Perfect secrecy, key entropy                   |
 +--------------------+------------------------------------------------+
 | Quantum mechanics  | Von Neumann entropy, entanglement              |
 +--------------------+------------------------------------------------+

 Deep meaning:
   Entropy — universal measure of "disorder" or "ignorance".
   It appears wherever there are probabilities and uncertainty.
   It is a bridge between discrete (bits) and continuous (thermodynamics).


===============================================================================
Noether's Theorem — symmetry ↔ conservation law
===============================================================================

 The deepest connection between mathematics and physics


 Emmy Noether's Theorem (1918):

   To each continuous symmetry of a physical system there corresponds
   a conservation law of some quantity.

 and conversely: to each conservation law there corresponds a symmetry.


 Main examples
+---------------------------+--------------------------+
| SYMMETRY                  | CONSERVED QUANTITY       |
+---------------------------+--------------------------+
|                           |                          |
| Shift in TIME             | ENERGY                   |
| (physics is the same      | E = const                |
| yesterday and today)      |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Shift in SPACE            | MOMENTUM                 |
| (physics is the same here | p = const                |
| and there)                |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| ROTATION                  | ANGULAR MOMENTUM         |
| (physics doesn't depend   | L = const                |
| on direction)             |                          |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Gauge symmetry            | electric charge          |
| (phase of wave function)  | Q = const                |
|                           |                          |
+---------------------------+--------------------------+
|                           |                          |
| Lorentz invariance        | Relativistic 4-momentum  |
| (physics doesn't depend   | pᵘ = (E/c, p)            |
| on reference frame)       |                          |
|                           |                          |
+---------------------------+--------------------------+

 Mathematical formulation


 System is described by Lagrangian L(q, q̇, t)

 If L is invariant under transformation q → q + εδq:

                ∂L
   Q = Σᵢ ----- · δqᵢ  =  const  (conserved)
               ∂q̇ᵢ

 Examples:
   • L doesn't depend on t  ⇒  ∂L/∂q̇ · q̇ − L = H (Hamiltonian) is conserved
   • L doesn't depend on x  ⇒  ∂L/∂ẋ = p (momentum) is conserved
   • L doesn't depend on angle θ ⇒  ∂L/∂θ̇ = Lz (angular momentum) is conserved


 Philosophical meaning


 Conservation laws are not "divine commandments", but consequences of the geometry
 of spacetime.

 Space is homogeneous (no "special points") ⇒ momentum is conserved
 Space is isotropic (no "special directions") ⇒ angular momentum is conserved
 Time is homogeneous (laws don't change) ⇒ energy is conserved

 Lie groups → Laws of physics.


 Hamiltonian mechanics — symplectic geometry in action


 Lagrangian describes system through coordinates q and velocities q̇.
 Hamiltonian — through coordinates q and momenta p = ∂L/∂q̇.

 Hamilton's canonical equations:

   q̇ᵢ = ∂H/∂pᵢ,      ṗᵢ = −∂H/∂qᵢ

 Phase space (q, p) has symplectic structure:
   2-form ω = Σ dpᵢ ∧ dqᵢ  (closed, nondegenerate)

 Liouville's theorem: phase volume is conserved under Hamiltonian flow.
   ∫ dq₁...dqₙ dp₁...dpₙ = const

   Physical meaning: cloud of initial conditions in phase space
   can change shape, but not volume. Fluid is incompressible.

 Poisson brackets:

   {f, g} = Σᵢ (∂f/∂qᵢ · ∂g/∂pᵢ − ∂f/∂pᵢ · ∂g/∂qᵢ)

   Properties: antisymmetry, Jacobi identity, Leibniz rule.
   Equation of motion: ḟ = {f, H} + ∂f/∂t
   Integral of motion: {f, H} = 0  ⟺  f is conserved.

 Connection with quantum mechanics:
   {f, g} → (1/iℏ)[f̂, ĝ]  (Poisson brackets → commutator of operators)
   This is not an analogy — this is exact correspondence (Dirac quantization).


===============================================================================
Optimization — gradient, extrema, Lagrangian
===============================================================================

 Optimization problem


 Given function f(x₁, x₂, ..., xₙ)
 Find point where f attains minimum (or maximum)

 Two cases:
   • Unconstrained: seek extremum over entire space
   • Constrained: g(x) = 0 (on surface)


 Convexity — guarantee of global optimum


 Main theorem: For convex function on convex set
                  local minimum = global minimum.

 This is fundamental fact that makes problem "solvable".


 Convex set


 Set C is convex if for any x, y ∈ C and any t ∈ [0,1]:

   tx + (1−t)y ∈ C

 (Segment between any two points lies entirely in set)

   Convex:   non-convex:  non-convex:
   +---------+       +---╮               +-----+
   |    ●----+---●   |   |               |     +--+
   |         |       |   +---+           |        |
   +---------+       +-------+           +--------+
   Circle, square    "Horseshoe"         With "hole"


 Convex function


 Function f is convex if for any x, y and t ∈ [0,1]:

   f(tx + (1−t)y) ≤ t·f(x) + (1−t)·f(y)

 (Chord lies above graph)

         f(x)●------------------●f(y)   ← chord
             ╲                 ╱
              ╲               ╱
               ╲------●------╱          ← graph of f
                f(tx+(1-t)y)


 Convexity criteria
+----------------------------+--------------------------------------+
| CRITERION                  | FORMULATION                          |
+----------------------------+--------------------------------------+
| First order                | f(y) ≥ f(x) + ∇f(x)·(y−x)            |
| (tangent UNDER graph)      | for all x, y                         |
+----------------------------+--------------------------------------+
| Second order               | H(f) ≽ 0 (Hessian matrix is positive |
| (for C² functions)         | semidefinite at all points)          |
+----------------------------+--------------------------------------+
| For f(x) single variable   | f''(x) ≥ 0 for all x                 |
+----------------------------+--------------------------------------+

 Examples of convex and non-convex functions
+---------------------------+-------------------------------------------------+
| CONVEX                    | NON-CONVEX                                      |
+---------------------------+-------------------------------------------------+
| x² (parabola)             | −x² (inverted parabola) — CONCAVE               |
| eˣ (exponential)          | sin(x), cos(x) — oscillate                     |
| |x| (absolute value)      | x³ — changes curvature                         |
| x log x (x > 0)           | √x — concave (but −√x is convex)               |
| ‖x‖ (any norm)            | x⁴ − x² — multiple minima                      |
| max(f₁, f₂) if fᵢ convex |                                                |
+---------------------------+-------------------------------------------------+

 Applied example: insulation thickness optimization


 Problem: Pipe with heat carrier. Find optimal insulation thickness δ.

 Cost = Insulation cost + Heat loss cost

   C(δ) = C_insul · δ + C_heat / (R₀ + δ/λ)
              ↑                    ↑
      linear in δ          decreases as 1/(R₀ + δ/λ)

 Convexity analysis:

   First term: linear (convex)
   Second term: 1/(R₀ + δ/λ) — convex for δ > 0
   Sum of convex = convex.

   C''(δ) = 2·C_heat·(1/λ)² / (R₀ + δ/λ)³ > 0  ✓

 Conclusion: Cost function is convex ⇒ found minimum is global.
        Gradient descent guaranteed to find optimum.

 If non-convex: Could get stuck in local minimum.
                    Need global optimization methods (expensive)


 Preservation of convexity (combination rules)


   +---------------------+------------------------------+
   | OPERATION           | RESULT                       |
   +---------------------+------------------------------+
   | αf, where α ≥ 0     | Convex (scaling)             |
   | f + g               | Convex (sum of convex)       |
   | max(f, g)           | Convex (maximum of convex)   |
   | f(Ax + b)           | Convex (affine substitution) |
   | ∩ convex sets       | Convex (intersection)        |
   +---------------------+------------------------------+

 Caution: min(f, g) NOT necessarily convex.
            Product fg NOT necessarily convex.
            Composition f(g(x)) requires conditions on f and g.


 Gradient — direction of steepest ascent


           ⎛ ∂f     ∂f          ∂f  ⎞
   ∇f  =   ⎜----, ----, ..., ----  ⎟
           ⎝ ∂x₁   ∂x₂         ∂xₙ ⎠

 Properties:
   • ∇f points in direction of greatest growth of f
   • |∇f| = rate of growth in this direction
   • ∇f ⊥ level curves f = const

 Example: f(x,y) = x² + y²
         ∇f = (2x, 2y) — points outward from center


 Subtlety: ∇f and df — NOT the same thing.


 Why this matters:
   When writing ∇f = (∂f/∂x, ∂f/∂y), this works in ℝⁿ with standard metric.
   But in general, the gradient and the differential are different objects.

 Differential df is covector (1-form):
   df: tangent vectors → numbers
   df(v) = "derivative of f in direction v" = rate of change of f

   df = (∂f/∂x) dx + (∂f/∂y) dy    ← linear combination of basis 1-forms

 Gradient grad f = ∇f is vector:
   ∇f is vector corresponding to covector df through metric

 Connection through metric:
   df(v) = ⟨∇f, v⟩    for any vector v
   or: ∇f = g⁻¹(df)  where g — metric tensor

 In Euclidean space (g = i):
   Metric is trivial, so components coincide:
   df = (∂f/∂x, ∂f/∂y)  and  ∇f = (∂f/∂x, ∂f/∂y)  — look identical

 In curvilinear coordinates (spherical, cylindrical):
   Components differ. Metric is non-trivial.

 Visualization:

   df — "price tag" (what does shift cost?)    ← covector, lives in V*
   ∇f — "arrow" (where to go?)                 ← vector, lives in V

     Level curves f = const
         ╱  ╱  ╱  ╱  ╱
        ╱  ╱  ╱  ╱  ╱
       ╱  ╱--→╱  ╱   ← ∇f (vector, perpendicular to level curves)
      ╱  ╱  ╱  ╱  ╱
     ╱  ╱  ╱  ╱  ╱

   df specifies "distance" between level curves
   ∇f shows direction of this distance (requires metric)

 Why ∇f ⊥ level curves:
   Along level curve f = const: df(v) = 0 for tangent v
   Therefore ⟨∇f, v⟩ = 0, i.e. ∇f is perpendicular to tangents

 Practical conclusion:
   In ℝⁿ with standard metric one can not distinguish df and ∇f.
   In general relativity, on manifolds — distinction is critical.


 Necessary condition for extremum


 Unconstrained:

                         ∇f = 0

   (all partial derivatives equal zero — critical point)

 To determine type of point — Hessian matrix:

            ⎛ ∂²f/∂x₁²    ∂²f/∂x₁∂x₂  ⋯  ∂²f/∂x₁∂xₙ  ⎞
   H(f) =   ⎜ ∂²f/∂x₂∂x₁  ∂²f/∂x₂²    ⋯  ∂²f/∂x₂∂xₙ  ⎟
            ⎜    ⋮           ⋮        ⋱      ⋮         ⎟
            ⎝ ∂²f/∂xₙ∂x₁  ∂²f/∂xₙ∂x₂  ⋯  ∂²f/∂xₙ²     ⎠

   H > 0 (positive definite) → minimum
   H < 0 (negative definite) → maximum
   det(H) < 0 → saddle


 Geometric meaning of Hessian — Why does this work?


 Reminder (single variable):

   f''(a) > 0 ⇒ minimum (function "curves upward" ⌣)
   f''(a) < 0 ⇒ maximum (function "curves downward" ⌢)

   Second derivative is curvature of graph.
   Positive curvature = "bowl" = minimum
   Negative curvature = "dome" = maximum

 Multidimensional case:

   At point a function f is approximated by quadratic form:

   f(a + h) ≈ f(a) + ∇f(a)·h + ½ hᵀ H(a) h
                       ↑          ↑
                    =0 at crit.    quadratic form
                       point

   At critical point ∇f = 0, so:

   f(a + h) − f(a) ≈ ½ hᵀ H h

   Sign of this expression determines where "surface" faces.

 Eigenvalues of Hessian = curvatures in principal directions:

   H — symmetric matrix, so diagonalizable:

   H = Q Λ Qᵀ, where Λ = diag(λ₁, λ₂, ..., λₙ)

   λᵢ is curvature of function along i-th principal direction.

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   All λᵢ > 0:  "bowl" in all directions = minimum                       |
 |                                                                         |
 |         z                                                               |
 |         |    ╭---╮                                                      |
 |         |   ╱     ╲                                                     |
 |         |  ╱   ●   ╲  ← point at bottom of bowl                         |
 |         | ╱---------╲                                                   |
 |         +------------→ x,y                                              |
 |                                                                         |
 |   All λᵢ < 0:  "dome" in all directions = maximum                       |
 |                                                                         |
 |         z                                                               |
 |         | ╲---------╱                                                   |
 |         |  ╲   ●   ╱  ← point at top of dome                            |
 |         |   ╲     ╱                                                     |
 |         |    ╰---╯                                                      |
 |         +------------→ x,y                                              |
 |                                                                         |
 |   Different signs λᵢ:  "saddle" — up in one, down in other             |
 |                                                                         |
 |         z                                                               |
 |         |    ╱╲                                                         |
 |         |   ╱  ╲                                                        |
 |         |  -----● ← point in saddle                                     |
 |         |   ╲  ╱                                                        |
 |         |    ╲╱                                                         |
 |         +------------→ x,y                                              |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Why bordered Hessian works:

   Under constrained optimization we move not over entire space,
   but only along surface g(x) = 0.

   Regular Hessian shows curvature in all directions.
   But we're interested only in feasible directions (along constraint).

   Bordering "subtracts" infeasible directions:
   • Zero row/column — fixes constraint
   • Interior part — Hessian of Lagrange function

   Minors of bordered Hessian show curvature
   In space perpendicular to ∇g (i.e. along surface).

 Analogy:
   Walking along mountain ridge (constraint = stay on ridge).
   You're interested in: is this local minimum or maximum along ridge,
   not that there are cliffs on sides.


 Method of Lagrange multipliers — extremum with constraint


 Problem: minimize f(x) subject to g(x) = 0

 Idea: At extremum point ∇f ∥ ∇g (gradients parallel)

                     ∇f = λ · ∇g

 where λ — Lagrange multiplier (unknown scalar)

 System of equations:
   • ∂f/∂xᵢ = λ · ∂g/∂xᵢ  for all i
   • g(x) = 0              (constraint)

 Equivalent: extremum of Lagrange function L = f − λg

 Example: Find rectangle of maximum area with P = 20
   f = xy (area), g = 2x + 2y − 20 = 0 (perimeter)
   ∇f = (y, x), ∇g = (2, 2)
   y = 2λ, x = 2λ ⇒ x = y ⇒ square 5×5


 Bordered Hessian matrix — determining type in constrained optimization


 Problem: Critical point found by Lagrange method.
 Is this minimum, maximum or saddle? Regular Hessian doesn't work.

 Idea: We're interested in sign of second derivative not in entire space,
 but only along constraint surface g(x) = 0.

 Bordered Hessian (for single constraint g = 0):

             ⎛    0      ∂g/∂x₁     ∂g/∂x₂     ⋯     ∂g/∂xₙ   ⎞
             ⎜ ∂g/∂x₁    ∂²L/∂x₁²   ∂²L/∂x₁∂x₂ ⋯     ∂²L/∂x₁∂xₙ ⎟
   H̄(L)  =   ⎜ ∂g/∂x₂    ∂²L/∂x₂∂x₁ ∂²L/∂x₂²   ⋯     ∂²L/∂x₂∂xₙ ⎟
             ⎜   ⋮          ⋮          ⋮       ⋱        ⋮        ⎟
             ⎝ ∂g/∂xₙ    ∂²L/∂xₙ∂x₁ ∂²L/∂xₙ∂x₂ ⋯     ∂²L/∂xₙ²    ⎠

   where L = f − λg — Lagrange function

 Extremum conditions (check corner minors h̄, starting with 3rd):

   Denote: |H̄ₖ| — principal minor of size k × k

 +---------------+---------------------------------------------------------+
 | TYPE OF POINT | CONDITION ON MINORS (k = 3, 4, ..., n+1)               |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | minimum       | All |H̄ₖ| < 0  (negative)                               |
 |               |                                                         |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | maximum       | Signs alternate: |H̄₃| > 0, |H̄₄| < 0, |H̄₅| > 0, ...     |
 |               | (first > 0, then sign alternation)                     |
 |               |                                                         |
 +---------------+---------------------------------------------------------+
 |               |                                                         |
 | SADDLE        | Otherwise                                               |
 |               |                                                         |
 +---------------+---------------------------------------------------------+

 Example: f(x,y) = xy, g(x,y) = x + y − 10 = 0

   ∇f = (y, x), ∇g = (1, 1)
   Critical point: x = y = 5, λ = 5

   Lagrange function: L = xy − λ(x + y − 10)
   ∂²L/∂x² = 0,  ∂²L/∂y² = 0,  ∂²L/∂x∂y = 1

              ⎛ 0  1  1 ⎞
   H̄(L)  =   ⎜ 1  0  1 ⎟
              ⎝ 1  1  0 ⎠

   |H̄₃| = det(H̄) = 0 + 1 + 1 − 0 − 0 − 0 = 2 > 0

   Sign |H̄₃| > 0 → maximum (xy is maximal when x = y = 5)

 Multiple constraints g₁ = 0, g₂ = 0, ..., gₘ = 0:

   Bordering extends to m rows/columns:

              ⎛  0    0   ... ∇g₁ᵀ ⎞
              ⎜  0    0   ... ∇g₂ᵀ ⎟
   H̄(L)  =   ⎜  ⋮   ⋮   ⋮   ⋮  ⎟
              ⎜ ∇g₁  ∇g₂  ...  H   ⎟
              ⎝                     ⎠

   Check minors starting with (2m+1)-th.

 Connection with regular Hessian:
   Bordering "projects" curvature onto tangent space
   to constraint surface. Zeros in corner — contribution from constraints.


 KKT — conditions for problems with inequalities


 Lagrange multipliers work for equalities: g(x) = 0
 But engineering problems often have inequalities: g(x) ≤ 0

 Problem: min f(x) subject to gᵢ(x) ≤ 0, hⱼ(x) = 0

 Karush–Kuhn–Tucker (KKT) conditions:
 +----------------------------------------------------------+
 | Necessary conditions for x* to be optimum:               |
 |                                                          |
 | 1. STATIONARITY:  ∇f(x*) + Σμᵢ∇gᵢ(x*) + Σλⱼ∇hⱼ(x*) = 0   |
 |                                                          |
 | 2. FEASIBILITY:    gᵢ(x*) ≤ 0,  hⱼ(x*) = 0               |
 |                                                          |
 | 3. DUAL FEASIBILITY:  μᵢ ≥ 0                             |
 |                                                          |
 | 4. COMPLEMENTARY SLACKNESS:  μᵢ · gᵢ(x*) = 0  for all i  |
 | (either constraint is active gᵢ=0, or multiplier μᵢ=0)   |
 +----------------------------------------------------------+

 Meaning of condition 4 (complementary slackness):
   • If x* inside region (gᵢ < 0), constraint doesn't affect → μᵢ = 0
   • If x* on boundary (gᵢ = 0), constraint is active → μᵢ ≥ 0

 Sufficiency: For convex problems (f convex, gᵢ convex, hⱼ linear)
 KKT conditions are not only necessary, but also sufficient.

 Example: min x² + y²  subject to x + y ≥ 1 (i.e. g(x,y) = 1 − x − y ≤ 0)
   ∇f = (2x, 2y), ∇g = (−1, −1)
   From stationarity: 2x − μ = 0, 2y − μ = 0 → x = y
   From compl. slackness: either μ=0 (then x=y=0, but 0+0<1 — infeasible),
                       or g=0 (then x=y=½, μ=1>0 — feasible)
   Answer: x* = y* = ½, f* = ½


 Calculus of variations — When function is unknown


 Find function y(x) minimizing functional:

   J[y] = ∫ₐᵇ F(x, y, y') dx

 Euler–Lagrange equation:

            ∂F     d  ⎛ ∂F  ⎞
           ---- − --- ⎜----⎟ = 0
           ∂y     dx ⎝ ∂y' ⎠
           ∂y    dx  ⎝ ∂y' ⎠

 Examples:
   • Shortest path → straight line
   • Brachistochrone (fastest descent) → cycloid
   • Principle of least action → laws of mechanics


 Connection with spaces


 Optimization is the search for special points on a space.

 Function space is infinite-dimensional.
   Each function y(x) is a "point" in this space.
   Functional J[y] is the "height" of this point.
   Calculus of variations = search for extrema in ∞-dimensional space.

 Geodesics on a manifold = extrema of path length.
   On a sphere: great circles
   In GR: trajectories in gravitational field


 Gradient descent — numerical optimization method


 Idea: Move in the direction of steepest decrease of the function.

   x_{n+1} = x_n − α · ∇f(x_n)

   α — step (learning rate), ∇f — gradient

 Visualization:

              ╱╲         level lines f = const
            ╱    ╲
          ╱   ●---→ ∇f (direction of growth)
        ╱        ╲
      ╱           ╲    Descent goes against gradient: −∇f
    ╱      ●←------╲
              ↓
              ● minimum

 Choice of step α:
   • α too small: slow convergence
   • α too large: divergence, "jumps" over minimum
   • Adaptive α: Armijo method, Wolfe conditions

 Variants:
 +----------------------+----------------------------------------+
 | METHOD               | FEATURE                                |
 +----------------------+----------------------------------------+
 | Gradient descent     | x ← x − α∇f                            |
 +----------------------+----------------------------------------+
 | Newton's method      | x ← x − H⁻¹∇f (H = Hessian)            |
 |                      | Faster, but needs 2nd derivative       |
 +----------------------+----------------------------------------+
 | Stochastic (SGD)     | Gradient on random subsample           |
 |                      | For big data (machine learning)        |
 +----------------------+----------------------------------------+
 | Adam, RMSprop        | Adaptive step for each coordinate      |
 |                      | Standard in deep learning              |
 +----------------------+----------------------------------------+

 Problems:
   • Local minima (global not guaranteed)
   • Saddle points (∇f=0, but not extremum)
   • Poor conditioning (elongated "ravines")

 Connection with physics:
   Gradient descent ≈ motion of a ball on surface f(x,y)
   with viscous friction (without inertia)


===============================================================================
Stability and control theory
===============================================================================

 Why stability is needed


 Main question: If the system is slightly pushed, will it return or fly away?

 Examples:
   • Pendulum: at bottom — stable, at top — unstable
   • Satellite: stable and unstable orbits
   • Heat network: will it reach regime after disturbance?
   • Economy: will the market return to equilibrium?

 Mathematical model:
   System is described by differential equation:

                     ẋ = f(x)

   where x — state vector, f — vector field
   Point x* is called equilibrium position if f(x*) = 0

-------------------------------------------------------------------------------
 Phase space as "river of trajectories"
-------------------------------------------------------------------------------

 Imagine phase space as a pool with flowing water:

   • Vector field f(x) — this is flow velocity at each point
   • Trajectory x(t) — this is path of a chip thrown in water
   • Equilibrium x* — this is point where water stands still (f = 0)
   • Stable equilibrium — this is sink (water flows in)
   • Unstable equilibrium — this is source (water flows out)
   • Limit cycle — this is vortex into which trajectories are drawn

 This analogy with hydrodynamics is deep:
   • div(f) < 0 in sink, div(f) > 0 in source
   • rot(f) ≠ 0 around center/focus
   • Liouville's theorem: incompressible flow preserves volume in phase space

 In Hamiltonian mechanics the phase flow is literally incompressible.


 Types of stability


 +------------------+----------------------------------------------------+
 | TYPE             | DEFINITION                                         |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Lyapunov         | ∀ε>0 ∃δ>0: |x(0)−x*|<δ ⇒ |x(t)−x*|<ε ∀t≥0        |
 | (stability)      | "Started close — will remain close forever"        |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Asymptotic       | Lyapunov stable + x(t) → x* as t → ∞              |
 |                  | "Not just close, but tends to equilibrium"         |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Exponential      | |x(t)−x*| ≤ C·e^(−αt)|x(0)−x*| for C,α > 0        |
 |                  | "Converges exponentially fast"                     |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | Global           | Asymptotic for any initial conditions              |
 |                  | (not only in neighborhood of x*)                   |
 |                  |                                                    |
 +------------------+----------------------------------------------------+
 |                  |                                                    |
 | BIBO             | Bounded Input → Bounded Output                     |
 |                  | Bounded input gives bounded output                 |
 |                  |                                                    |
 +------------------+----------------------------------------------------+

 Visualization:

   Stable              Asymptotically        Unstable
   (Lyapunov)          stable

       ●                   ●                     ○
      ╱|╲                 ╱|╲                   ╱|╲
     ╱ | ╲               ╱ | ╲                 ╱ | ╲
    ●--●--●             ●→-●-←●               ●--●--●→
   does not go         tends to              diverges
   far                 center


 Linearization and eigenvalues


 Idea: Near equilibrium x* we replace nonlinear system with linear

   ẋ = f(x) ≈ f(x*) + Df(x*)(x − x*) = A(x − x*)

   where A = Df(x*) — Jacobian matrix (matrix of partial derivatives)

 Lyapunov's first approximation theorem:
 +---------------------------------------------------------------------+
 |                                                                     |
 | If all eigenvalues λᵢ of matrix A have Re(λᵢ) < 0,                |
 | then x* is ASYMPTOTICALLY STABLE.                                   |
 |                                                                     |
 | If at LEAST one Re(λᵢ) > 0, then x* is unstable.                   |
 |                                                                     |
 | If Re(λᵢ) ≤ 0 and there exists λ with Re(λ) = 0 — need additional analysis. |
 |                                                                     |
 +---------------------------------------------------------------------+

 Geometry on complex plane:

            Im(λ)
              |
       ○      |      ×     ← × unstable (Re > 0)
              |
   -----------+-----------  Re(λ)
              |
       ○      |      ×     ← ○ stable (Re < 0)
              |

   All λ in left half-plane ⟺ asymptotic stability

 Physical meaning:
   Re(λ) < 0: exponential decay e^(Re(λ)t)
   Re(λ) > 0: exponential growth
   Im(λ) ≠ 0: oscillations with frequency |Im(λ)|


 Phase portrait — visualization of dynamics


 For system ẋ = Ax (2D) behavior type is determined by eigenvalues.
 Six basic types of fixed points:

 +-------------------------------------------------------------------------+
 |                                                                         |
 |   NODE (stable)               FOCUS (stable)           SADDLE           |
 |   λ₁, λ₂ < 0, real            λ = α ± iβ, α < 0        λ₁ < 0 < λ₂      |
 |                                                                         |
 |     ↘  ↓  ↙                      ╭--←--╮                  ↑            |
 |       ↘↓↙                      ↙         ↖          ←  ←  ●  →  →      |
 |   → → ●  ← ←                  ↓     ●     ↑              ↓             |
 |       ↗↑↖                      ↘         ↗                             |
 |     ↗  ↑  ↖                      ╰--→--╯           (2 separatrices,   |
 |   (all trajectories            (damped inward        attracting       |
 |    pulled to 0)                 spiral)               and repelling)    |
 |                                                                         |
 |                                                                         |
 |   CENTER                      NODE (unstable)         FOCUS (unstable)  |
 |   λ = ±iβ (purely imag.)      λ₁, λ₂ > 0, real        λ = α ± iβ, α > 0 |
 |                                                                         |
 |        ╭-→-╮                   ↖  ↑  ↗                  ╭--→--╮        |
 |      ╭╯  ╭-╮  ╰╮                 ↖↑↗                   ↗        ↘      |
 |     ↑  ╭╯ ╰╮  ↑               ← ← ● → →                ↑    ●    ↓     |
 |     ↑  ╰╮ ╭╯  ↑                 ↙↓↘                     ↖        ↙     |
 |      ╰╮  ╰-╯  ╭╯                ↙  ↓  ↘                  ╰--←--╯       |
 |        ╰-←-╯                  (all diverge           (outward          |
 |   (nested closed orbits,      from zero)              expanding spiral) |
 |    conservative)                                                        |
 |                                                                         |
 +-------------------------------------------------------------------------+

 Classification in (det A, tr A) plane:

                          tr A
                           ↑
                           |       unstable focus
             unstable node |       (det > (tr/2)²)
           (det > 0,      ╱|╲
            tr > 0)      ╱ | ╲    ← parabola det = (tr A / 2)²
                        ╱  |  ╲
                       ╱   |   ╲
          ------------ ----●----- ← centers (tr = 0, det > 0)
                       ╲   |   ╱
                        ╲  |  ╱
             stable node ╲ | ╱   stable focus
           (det > 0,      ╲|╱    (det > (tr/2)²)
            tr < 0)        |
                          ----→ det A
                           |
                  SADDLES: det A < 0 (λ of opposite signs)

 Example: Pendulum (linearized)

   θ̈ + (b/m)θ̇ + (g/L)θ = 0  →  ẋ = Ax, where x = (θ, θ̇)

   A = | 0      1    |     Characteristic equation: λ² + (b/m)λ + g/L = 0
       |−g/L  −b/m   |

   b = 0: center (ideal pendulum, oscillations without damping)
   b > 0 small: focus (damped oscillations)
   b large: node (aperiodic damping)


 Lyapunov function — generalized "energy"


 Idea: Find function V(x) that decreases along trajectories

 Definition:
   V: ℝⁿ → ℝ is called Lyapunov function for ẋ = f(x) in neighborhood of x*,
   if:
     1. V(x*) = 0 and V(x) > 0 for x ≠ x* (positive definite)
     2. V̇(x) = ∇V · f(x) ≤ 0 along trajectories (decreases or constant)

 Lyapunov theorems:
 +------------------------------------------------------+
 |                                                      |
 | V̇ ≤ 0  ⇒  x* Lyapunov stable                        |
 |                                                      |
 | V̇ < 0 (except x*)  ⇒  x* asymptotically stable     |
 |                                                      |
 +------------------------------------------------------+

 Example: Pendulum with friction  ẍ + bẋ + sin(x) = 0

   V = ½ẋ² + (1 − cos x)    ("energy" = kinetic + potential)
   V̇ = −bẋ² ≤ 0            (energy decreases due to friction)

   Since V̇ ≤ 0 and V̇ = 0 only when ẋ = 0, point (0, 0) is asymptotically
   stable (LaSalle's invariance principle).

 Advantage:
   No need to solve equations. Sufficient to find suitable V.
   Works for nonlinear systems.

 Difficulty:
   No general method for constructing V. This is art + physical intuition.


 Routh–Hurwitz criterion — stability without computing roots


 Problem: Check whether all roots of characteristic polynomial
         p(λ) = λⁿ + aₙ₋₁λⁿ⁻¹ + ... + a₁λ + a₀ lie in left half-plane

 Hurwitz matrix:

        ⎛ aₙ₋₁  aₙ₋₃  aₙ₋₅  ⋯  0   ⎞
        ⎜  1    aₙ₋₂  aₙ₋₄  ⋯  0   ⎟
   H =  ⎜  0    aₙ₋₁  aₙ₋₃  ⋯  0   ⎟
        ⎜  0     1    aₙ₋₂  ⋯  0   ⎟
        ⎝  ⋮     ⋮     ⋮    ⋱  a₀  ⎠

 Criterion:
 +---------------------------------------------------------------+
 |                                                               |
 | System stable ⟺ all principal minors Δ₁, Δ₂, ..., Δₙ > 0    |
 |                                                               |
 +---------------------------------------------------------------+

 Special cases:

   n = 2: λ² + a₁λ + a₀
          Stable ⟺ a₁ > 0 and a₀ > 0

   n = 3: λ³ + a₂λ² + a₁λ + a₀
          Stable ⟺ a₂ > 0, a₀ > 0, a₂a₁ > a₀

 Practical significance:
   No need to find roots. Only check signs of determinants.
   Can analyze stability with parameters (aᵢ = f(k, τ, ...))


 State space — modern approach to control


 State-space model:

   ẋ = Ax + Bu      (state equation)
   y = Cx + Du      (output equation)

   x ∈ ℝⁿ — state vector (internal variables)
   u ∈ ℝᵐ — input vector (control inputs)
   y ∈ ℝᵖ — output vector (measured quantities)
   A, B, C, D — system matrices

 Example: Heat exchanger
   x = (T₁, T₂, T₃)ᵀ  — temperatures at points
   u = (Q_in, G)ᵀ     — thermal power, flow rate
   y = T_out          — output temperature

 Connection with transfer function:

   G(s) = C(sI − A)⁻¹B + D

   Poles of G(s) = eigenvalues of A
   Stability: all poles in left half-plane


 Controllability and observability


 Controllability: Is it possible to reach any x₁ from any x₀?

   Controllability matrix:  𝒞 = [B  AB  A²B  ⋯  Aⁿ⁻¹B]

 +-------------------------------------------------+
 | System CONTROLLABLE ⟺ rank(𝒞) = n  (full rank)  |
 +-------------------------------------------------+

 Observability: Is it possible to reconstruct x(t) from y(t)?

   Observability matrix:  𝒪 = [C; CA; CA²; ⋯; CAⁿ⁻¹]ᵀ

 +-------------------------------------------------+
 | System OBSERVABLE ⟺ rank(𝒪) = n  (full rank)    |
 +-------------------------------------------------+

 Duality:
   (A, B) controllable ⟺ (Aᵀ, Cᵀ) observable

 Practical meaning:
   • Uncontrollability: there are "hidden" modes that cannot be influenced
   • Unobservability: there are "invisible" modes that are not visible in output


 P, PI, PID controllers — workhorses of automation


 Problem: Maintain quantity y(t) at setpoint level r(t)
         e(t) = r(t) − y(t) — control error

-------------------------------------------------------------------------------
1. P-controller (proportional)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t)

   Essence: Control action is proportional to the error.
            The larger the deviation — the stronger the reaction.

   Example (boiler):
   Setpoint 50°C, current temperature 45°C, Kₚ = 2
   Error e = 50 − 45 = 5°C
   Control u = 2 × 5 = 10 units of power

   ✓ Pros: Reacts quickly
   ✗ Cons: Static error remains (doesn't "push through" to setpoint)

-------------------------------------------------------------------------------
 2. PI-controller (proportional-integral)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t) + Kᵢ · ∫e(τ)dτ

   Essence: "Memory" is added — accumulated sum of past errors.
            Even a small constant error will accumulate over time
            and increase the control action.

   Example (same boiler, Kₚ = 2, Kᵢ = 0.5):

   Step 1: T = 45°C, e = 5°C
           Integral = 5
           u = 2×5 + 0.5×5 = 10 + 2.5 = 12.5

   Step 2: T = 47°C, e = 3°C
           Integral = 5 + 3 = 8
           u = 2×3 + 0.5×8 = 6 + 4 = 10

   Step 3: T = 49°C, e = 1°C
           Integral = 8 + 1 = 9
           u = 2×1 + 0.5×9 = 2 + 4.5 = 6.5

   The integral "remembers" past errors and brings to setpoint.

   ✓ Pros: Eliminates static error
   ✗ Cons: Can overregulate (overshoot the setpoint)

-------------------------------------------------------------------------------
 3. PID-controller (proportional-integral-derivative)
-------------------------------------------------------------------------------

   u(t) = Kₚ · e(t) + Kᵢ · ∫e(τ)dτ + K_d · ė(t)

   Essence: Reaction to the rate of change of error is added.
            If temperature rapidly approaches the setpoint —
            the derivative part "brakes", to avoid overshooting.

   Example (Kₚ = 2, Kᵢ = 0.5, K_d = 1):

   Step 1: T = 45°C, e = 5°C, ė = 5 (error appeared)
           u = 2×5 + 0.5×5 + 1×5 = 10 + 2.5 + 5 = 17.5 ← aggressive start

   Step 2: T = 47°C, e = 3°C, ė = 3−5 = −2 (error decreasing)
           u = 2×3 + 0.5×8 + 1×(−2) = 6 + 4 − 2 = 8 ← braking

   Step 3: T = 49°C, e = 1°C, ė = 1−3 = −2
           u = 2×1 + 0.5×9 + 1×(−2) = 2 + 4.5 − 2 = 4.5 ← smooth approach

   ✓ Pros: Faster and more accurate, minimum overregulation
   ✗ Cons: More difficult to tune, sensitive to noise

-------------------------------------------------------------------------------
 Comparison using cruise control example
-------------------------------------------------------------------------------

   P:   The more the car lags behind the set speed, the harder the gas.
        But if the road goes uphill — constant lag.

   PI:  "Remembers" that it hasn't reached the speed for a long time — adds gas
        until complete match. But can accelerate and overshoot.

   PID: If the car rapidly accelerates — releases gas in advance,
        to avoid overshooting the desired speed.

-------------------------------------------------------------------------------
 Summary table
-------------------------------------------------------------------------------

 +-----------+-------------+----------------+-------------------+
 | REGULATOR | RESPONSE    | STATIC ERROR   | OVERREGULATION    |
 +-----------+-------------+----------------+-------------------+
 | P         | Fast        | EXISTS         | None or small     |
 | PI        | Slower      | none           | Possible          |
 | PID       | Optimal     | NONE           | Minimal           |
 +-----------+-------------+----------------+-------------------+

 Tuning (Ziegler–Nichols method and others):
   1. Find critical coefficient Kₚ_crit (at stability boundary)
   2. Find period of critical oscillations T_crit
   3. Calculate Kₚ, Kᵢ, K_d using empirical formulas

 ~95% of industrial control systems use PID.


 Feedback and stabilization


 Without feedback (open-loop system):

   r(t) ---→ [Regulator] ---→ [Object] ---→ y(t)

   Problem: Does not compensate for disturbances.

 With feedback (closed-loop system):

   r(t) --→⊕--→ [Regulator] ---→ [Object] ---→ y(t)
           |                                   |
           +------------- [−1] ←---------------+

 Stabilization theorem:
   If (A, B) is controllable, then one can always find a matrix K such
   that the feedback system u = −Kx has any desired poles.

   Closed-loop system: ẋ = (A − BK)x
   By choosing K one can make all eigenvalues of (A − BK) negative.

 LQR (Linear Quadratic Regulator):
   Optimal choice of K, minimizing the quality functional:
   J = ∫₀^∞ (xᵀQx + uᵀRu) dt
   Q — penalty for state deviation
   R — penalty for control expenditure


 Connection with other sections


 +-------------------+----------------------------------------------+
 | SECTION           | CONNECTION WITH STABILITY and CONTROL        |
 +-------------------+----------------------------------------------+
 | Linear algebra    | Eigenvalues determine stability              |
 |                   | Rank of matrices → controllability/observabi |
 +-------------------+----------------------------------------------+
 | Complex numbers   | Poles on the complex plane                   |
 |                   | Nyquist criterion (contour in ℂ)             |
 +-------------------+----------------------------------------------+
 | Series (Fourier)  | Frequency analysis, Bode diagrams            |
 |                   | Transfer function G(jω)                      |
 +-------------------+----------------------------------------------+
 | XIX Optimization  | LQR, optimal control                         |
 |                   | Pontryagin's maximum principle               |
 +-------------------+----------------------------------------------+
 | Diff. equations   | Phase portraits, bifurcations                |
 |                   | Nonlinear dynamics, chaos                    |
 +-------------------+----------------------------------------------+

-------------------------------------------------------------------------------
Deep analogy: PID controller ↔ arima model

 PID (continuous control) and arima (time series analysis) — this is
 the same pattern from different worlds.

 +-------------------+------------------+-------------------------+
 | COMPONENT         | PID              | ARIMA                   |
 +-------------------+------------------+-------------------------+
 | Current state     | P (proportion.)  | AR (autoregression)     |
 | "Where am I now?" | e(t)             | xₜ₋₁, xₜ₋₂, ...         |
 +-------------------+------------------+-------------------------+
 | Accumulated       | I (integral)     | I (integration)         |
 | history           | ∫e(τ)dτ          | ∇⁻¹ = accumulation      |
 +-------------------+------------------+-------------------------+
 | Rate of           | D (different.)   | MA (moving average)     |
 | change            | de/dt            | εₜ₋₁, εₜ₋₂, ... (shocks)|
 +-------------------+------------------+-------------------------+

 Both approaches answer the question: how to account for the past, present
 and tendency of change for prediction/control of the future?

-------------------------------------------------------------------------------

 Deep meaning:
   Stability is a topological property of phase space.
   System trajectories form a "flow" on a manifold.
   Attractors (stable points/cycles) — singularities of this flow.


===============================================================================
Dynamical systems — nonlinear dynamics and chaos
===============================================================================

 Nonlinear systems as a view of space


 Linear systems ẋ = Ax are predictable: nodes, foci, saddles. The real
 world is nonlinear: ẋ = f(x). Nonlinearity gives rise to qualitatively new phenomena:
 limit cycles, bifurcations, chaos.

 A dynamical system is a flow on phase space.
 Instead of solving equations we study the geometry of this flow.


 Classification of singular points of nonlinear systems

 For ẋ = f(x) near a fixed point f(x*) = 0 behavior is determined by
 the Jacobian A = Df(x*) — if all Re(λᵢ) ≠ 0 (hyperbolic point).

 Grobman–Hartman theorem:
   If all eigenvalues of A have nonzero real part,
   then the nonlinear system is topologically equivalent to the linear ẋ = Ax
   near x*.

 When Re(λ) = 0 — linearization is insufficient, bifurcations arise.


 Limit cycles — stable oscillations


 Limit cycle — an isolated closed trajectory, to which
 neighboring trajectories converge (or from which they flee).

 Key difference from linear center: limit cycle is stable
 (attracts), center is neutral (neither attracts nor repels).

 Example: Van der Pol oscillator
   ẍ − μ(1 − x²)ẋ + x = 0    (μ > 0)

   For small x: negative damping (pumps energy)
   For large x: positive damping (brakes)
   Result: stable limit cycle — self-oscillations.

   Physics: heartbeat, generators, predator-prey.


 Bifurcations — qualitative change of behavior


 Bifurcation — change in topology of phase portrait when
 parameter changes.

 +---------------------+-------------------------------------------+
 | BIFURCATION         | WHAT HAPPENS                              |
 +---------------------+-------------------------------------------+
 | Saddle-node         | Two fixed points (stable +                |
 | (fold)              | unstable) merge and disappear.            |
 |                     | ẋ = μ − x²:  μ>0: two roots, μ<0: none. |
 +---------------------+-------------------------------------------+
 | Pitchfork           | One point splits into three.              |
 | (pitchfork)         | ẋ = μx − x³: for μ>0 appear ±√μ.        |
 |                     | Example: loss of stability of a rod       |
 |                     | under compression (Euler problem).        |
 +---------------------+-------------------------------------------+
 | Hopf                | Fixed point loses stability,              |
 |                     | limit cycle is born.                      |
 |                     | Eigenvalues cross the imaginary axis.     |
 |                     | Example: onset of self-oscillations in    |
 |                     | a circuit.                                |
 +---------------------+-------------------------------------------+
 | Period doubling     | Limit cycle loses stability,              |
 |                     | cycle of double period is born.           |
 |                     | Cascade of doublings → chaos (Feigenbaum  |
 |                     | scenario). Universal constant             |
 |                     | δ ≈ 4.669.                                |
 +---------------------+-------------------------------------------+


 Chaos — deterministic unpredictability


 Chaotic system:
   • Deterministic (no randomness)
   • Sensitive to initial conditions (butterfly effect)
   • Has strange attractor (fractal structure)

 Lyapunov exponent λ:
   |δx(t)| ≈ |δx(0)| · e^{λt}

   λ > 0: chaos (close trajectories diverge exponentially)
   λ < 0: stability (converge)
   λ = 0: on the boundary

 Example: Lorenz system (convection model)
   ẋ = σ(y − x)
   ẏ = x(ρ − z) − y
   ż = xy − βz

   For σ=10, β=8/3, ρ=28: strange attractor — "Lorenz butterfly".

 Practical significance for an engineer:
   Chaos means that long-term prediction is impossible even with an ideal
   model. But short-term prediction and statistical properties —
   are predictable. Control of chaotic systems is possible
   with small perturbations (OGY method).


===============================================================================
Machine Learning — Geometry of Data
===============================================================================

 Main Idea


   Machine Learning = geometry in feature space

   • Object = point in ℝⁿ (n features)
   • Learning = search for structure in a cloud of points
   • Classification = separation of points by a hypersurface
   • Regression = projection onto a subspace
   • Dimensionality reduction = mapping ℝⁿ → ℝᵏ

   All ML methods are geometric operations on points in space.


 Dictionary: ml ↔ mathematics


   Neural network weights W = coordinates of a point in parameter space ℝᵈ
   Training              = movement along the manifold of loss function L(W)
   Gradient descent      = following the antigradient −∇L
   L2-regularization     = constraint ‖W‖² ≤ C (ball in weight space)
   Bayesian approach     = prior measure on parameter space
   Overfitting           = going beyond the "typical set" of data


 Connection with other sections of the atlas


 ML is not an isolated area. It is an application of the mathematics of the atlas.

 +--------------------+------------------------------------------------+
 | ML CONCEPT         | WHERE IN THE ATLAS                             |
 +--------------------+------------------------------------------------+
 | Linear regression  | Projection onto subspace:                      |
 |                    | ŷ = X(XᵀX)⁻¹Xᵀy — orthogonal projection         |
 +--------------------+------------------------------------------------+
 | Backpropagation    | Chain rule of differentiation:                 |
 |                    | ∂L/∂wᵢ = ∂L/∂y · ∂y/∂wᵢ                        |
 +--------------------+------------------------------------------------+
 | Regularization     | Prior distribution = measure:                  |
 |                    | L2-regularization ↔ Gaussian prior on weights  |
 +--------------------+------------------------------------------------+
 | SVM with kernels   | Hilbert space:                                 |
 |                    | K(x,y) — reproducing kernel, ⟨φ(x),φ(y)⟩       |
 +--------------------+------------------------------------------------+
 | PCA                | Eigenvectors:                                  |
 |                    | Spectral decomposition of covariance matrix    |
 +--------------------+------------------------------------------------+
 | Gradient descent   | Optimization on manifold:                      |
 |                    | −∇L ∈ T*M → movement in direction of decrease  |
 +--------------------+------------------------------------------------+
 | Softmax            | Exponential family of distributions:           |
 |                    | p(y=k) ∝ exp(zₖ) — maximum entropy             |
 +--------------------+------------------------------------------------+
 | Cross-entropy loss | KL-divergence:                                 |
 |                    | H(p,q) = −Σp log q — information measure       |
 +--------------------+------------------------------------------------+
 | Neural network     | Composition of functions: f = fₙ ∘ ... ∘ f₁    |
 |                    | Universal approximation                        |
 +--------------------+------------------------------------------------+

 Understanding these connections, we see: ML is not a "black box", but geometry.


-------------------------------------------------------------------------------
Fundamental Concepts
-------------------------------------------------------------------------------

-------------------------------------------------------------------------------
Data Splitting
-------------------------------------------------------------------------------

 Analogy with an Exam


   Bad approach:
   You memorize answers to specific questions from last year's exams.
   On the same questions you get 100%. On the real exam — failure.

   Good approach:
   You learn the material deeply. You test yourself on new problems.
   If you do well on new problems → you really understood the material.

   A model should work on data it hasn't seen during training.


Train / Validation / Test:

    Original data (100%):
    +- 70% → Training
    |         Model "sees" this data and "learns" from it
    |
    +- 10% → Validation
    |         Hyperparameter tuning, model comparison
    |         Can be looked at multiple times
    |
    +- 20% → Test
              Final check once at the end
              Honest quality assessment

What you should never do:
    ✗ Train model on test
    ✗ Tune hyperparameters based on test results
    ✗ Check on test multiple times (then it becomes validation)


Overfitting and Underfitting
-------------------------------------------------------------------------------

 Overfitting


   Model "memorizes" training data instead of learning patterns.

   Symptoms:
   • Excellent quality on train (99%)
   • Poor quality on test (70%)
   • Large gap between train and test

   Causes: model too complex, little data, no regularization

   Geometrically:

        •  •  class 1
      ╱-|-╲╱-|-╲  ← boundary "bent" to pass through every point
     --•---•---•--
        •  •  class 0

   Model fit to noise in data, not to true dependency.


 Underfitting


   Model too simple and cannot learn patterns.

   Symptoms:
   • Poor quality on train (70%)
   • Poor quality on test (68%)
   • both poor, gap small

   Causes: model too simple, regularization too strong

   Geometrically:

          •  •  class 1
        •  ○○○  •
          •  •  class 0 (○) surrounds class 1
       ----+---- ← straight line cannot separate such data
Cross-Validation (K-Fold CV)
-------------------------------------------------------------------------------

Problem: validation set can be "unlucky" — too simple or too complex.

Solution: average over K different splits.

    +----+----+----+----+----+
    | F1 | F2 | F3 | F4 | F5 |
    +----+----+----+----+----+

    Iteration 1: train on F2,F3,F4,F5  →  test on F1
    Iteration 2: train on F1,F3,F4,F5  →  test on F2
    ...
    Iteration 5: train on F1,F2,F3,F4  →  test on F5

    Final score = average over 5 iterations
    Standard deviation = measure of model stability

    +=========================================================+
    | Low std = model works the same on different data        |
    | High std = model is sensitive to train choice           |
    +=========================================================+


-------------------------------------------------------------------------------
Regularization
-------------------------------------------------------------------------------

Regularization = limiting model complexity to combat overfitting.

L2 (Ridge): L(θ) = Loss(θ) + λ‖θ‖²
    Shrinks weights toward zero, but doesn't zero them out

L1 (Lasso): L(θ) = Loss(θ) + λ‖θ‖₁
    Zeros out some weights → feature selection

Geometric interpretation:

         θ₂                              θ₂
         ↑                               ↑
         |    ╱---╲                      |    ╱---╲
         |   ╱  ●  ╲ ← OLS solution      |   ╱  ●  ╲
         |  |   ╲   |                    |  |   ╱| |
         |  |    ○  | ← Ridge (on circle)|  |  ╱ ○ | ← Lasso (on diamond)
         |   ╲     ╱                     |   ╲╱   ╱
         |    ⊙    | ← constraint        |    ◆   |
         +------------→ θ₁               +------------→ θ₁
              Ridge                           Lasso

    Ridge: ellipse touches circle → weights shrink, but ≠ 0
    Lasso: ellipse touches diamond → touches at corner → some weights = 0


-------------------------------------------------------------------------------
Linear Regression — Projection Geometry
-------------------------------------------------------------------------------

Formulation:

    Given: X ∈ ℝⁿˣᵖ (n objects, p features), y ∈ ℝⁿ (response)
    Find: θ ∈ ℝᵖ such that ŷ = Xθ minimizes ‖y - ŷ‖²

Geometric interpretation:

    +============================================+
    | Linear regression = projection of vector y |
    | onto subspace spanned by columns of X      |
    +============================================+

         y (actual vector)
         ●
        ╱|╲
       ╱ | ╲
      ╱  |  ╲
     ╱   |90°╲
    ╱----●----╲--------→ subspace L = span(X)
         ŷ (projection)
         ↑
         This is perpendicular.

Optimality condition: residual (y - ŷ) ⊥ subspace L

    Xᵀ(y - Xθ) = 0
    Xᵀy = XᵀXθ
    θ* = (XᵀX)⁻¹Xᵀy ← normal equation


-------------------------------------------------------------------------------
Logistic Regression — Probabilistic Classification
-------------------------------------------------------------------------------

Formulation:

    Given: X ∈ ℝⁿˣᵖ, y ∈ {0,1}ⁿ (binary labels)
    Find: P(y=1|x) for new objects

Why not linear regression?

    Problem 1: predictions go outside [0,1]
        Patient with very high pressure: ŷ = 1.8 — but this is not a probability.

    Problem 2: outliers break the model
        Linear regression "pulls" toward outliers

Solution — sigmoid:

    Linear part            Sigmoid            Probability
    z = θᵀx        ---→    σ(z) = 1/(1+e⁻ᶻ)  ---→   P(y=1)
    z ∈ (-∞, +∞)                                   ∈ [0,1]

    z = -10  →  P ≈ 0     (almost certain: class 0)
    z = 0    →  P = 0.5   (uncertainty)
    z = +10  →  P ≈ 1     (almost certain: class 1)

Loss function (Cross-Entropy):

    L(θ) = -Σᵢ[yᵢ log(p̂ᵢ) + (1-yᵢ) log(1-p̂ᵢ)]

    where p̂ᵢ = σ(θᵀxᵢ)

Why cross-entropy, not MSE? (critically important)

    Gradients for model ŷ = σ(z), z = θᵀx:

    MSE:              ∂L/∂z = 2(ŷ - y) · σ(z)(1-σ(z))
    Cross-entropy:    ∂L/∂z = ŷ - y

    Key fact: σ'(z) = σ(z)(1-σ(z)) → zero as |z|→∞

    Sigmoid saturation:

        z       σ(z)    σ'(z)
        -----   -----   -----
        -10     0.00005 0.00005  ← almost zero.
          0     0.50000 0.25000  ← maximum
        +10     0.99995 0.00005  ← almost zero.

    Critical example:

        Correct answer: y = 1
        Model predicts: z = -10 → σ(-10) ≈ 0

        Error is huge. (predicted 0 instead of 1)

        MSE gradient:  2(0 - 1) · 0.00005 ≈ -0.0001  ← microscopic.
        CE gradient:   0 - 1 = -1.0                   ← normal.

    +===============================================================+
    | With large error MSE gives small gradient → getting stuck.    |
    | Cross-entropy: derivative σ'(z) cancels during differentiation|
    | leaving clean gradient (ŷ - y)                                |
    +===============================================================+

    Mathematically: CE = negative log-likelihood for Bernoulli:
    P(y|x) = σ(z)ʸ · (1-σ(z))¹⁻ʸ  →  -log P = L_CE

Decision boundary:

    Boundary = {x : P(y=1|x) = 0.5} = {x : θᵀx = 0} ← hyperplane.

         •  •  class 1
         •  •
    -----------------  ← boundary θᵀx = 0
        •  •
         •  •  class 0


-------------------------------------------------------------------------------
SVM — maximum margin
-------------------------------------------------------------------------------

Idea: find a hyperplane with maximum margin between classes.

         •  •  class 1
        ===========  ← margin
    ---------------  ← separating hyperplane wᵀx + b = 0
        ===========
         •  •  class 0

Optimization problem:

    max  margin = 2/‖w‖
    s.t. yᵢ(wᵀxᵢ + b) ≥ 1  for all i

    Equivalently: min ½‖w‖²

Support Vectors:

    Points lying on the margin boundary (yᵢ(wᵀxᵢ + b) = 1).
    Only they determine the solution.

    ● ← support vector (on margin boundary)
    • ← ordinary point (doesn't affect solution)

Kernel trick:

    For non-linearly separable data: project into higher-dimensional space
    where data becomes linearly separable.

    Trick: don't compute φ(x) explicitly, but use kernel K(x,x') = ⟨φ(x),φ(x')⟩

    Popular kernels:
    • Linear: K(x,x') = xᵀx'
    • RBF (Gaussian): K(x,x') = exp(-γ‖x-x'‖²)
    • Polynomial: K(x,x') = (xᵀx' + c)ᵈ


-------------------------------------------------------------------------------
KNN — classification by neighbors
-------------------------------------------------------------------------------

Idea: "Tell me who your neighbors are — and I'll tell you who you are."

Algorithm:

    1. For new object x find K nearest neighbors in training set
    2. Class of x = majority vote among K neighbors

    K=1: boundary = Voronoi diagram
    K large: boundary smooths out

Features:

    ✓ No training (lazy learning)
    ✓ Natural non-linear boundary
    ✓ Easy to add new data

    ✗ Slow prediction O(nN) where N — training set size
    ✗ Curse of dimensionality (in high dimensions all points are "far")
    ✗ Sensitive to feature scale → normalization needed


-------------------------------------------------------------------------------
PCA — dimensionality reduction
-------------------------------------------------------------------------------

Formulation:

    Given: X ∈ ℝⁿˣᵖ (centered data)
    Find: directions w₁, w₂, ..., wₖ of maximum variance

Main theorem:

    +============================================================+
    | Directions of maximum variance =                           |
    | = eigenvectors of covariance matrix S = XᵀX/(n-1)          |
    |                                                            |
    | Variance along PCᵢ = eigenvalue λᵢ                         |
    +============================================================+

Derivation:

    max  Var(Xw) = wᵀSw
    s.t. ‖w‖ = 1

    Lagrangian: ℒ = wᵀSw - λ(wᵀw - 1)
    ∂ℒ/∂w = 2Sw - 2λw = 0

    Sw = λw ← eigenvector problem.

Geometric intuition:

    x₂
     ↑     PC1 (direction of max. variance)
     |    ╱●
     |  ●╱  ●
     | ●╱ ●  ●    ← PC1 goes along "length" of cloud
     |●╱ ●   ●       PC2 ⊥ PC1
     +╱----------→ x₁
      ╲
       PC2

    Projection onto PC1 preserves maximum information about differences between points.

Why variance = information?

    Large variance → points well distinguishable → much information
    Small variance → points "stuck together" → little information
    Zero variance = constant → no information

Connection with SVD:

    X = UΣVᵀ

    • Columns of V = directions of principal components (loadings)
    • Σᵢᵢ² / (n-1) = eigenvalues of S = variances
    • Columns of U·Σ = projections onto principal components (scores)


-------------------------------------------------------------------------------
Comparison of classification methods
-------------------------------------------------------------------------------

+---------------------+-------------------+---------------------+-----------+
| Aspect              | Logistic regr.    | SVM                 | KNN       |
+---------------------+-------------------+---------------------+-----------+
| Approach            | Probabilistic     | Geometric (margin)  | Neighbors |
| Boundary            | Linear            | Linear/non-linear   | Any       |
| Training            | Iterative         | Quadr. optimization | None      |
| Prediction          | Fast O(p)         | Fast O(#SV·p)       | Slow      |
| Probabilities       | ✓ Natural         | ✗ None              | ✓ Approx. |
| Interpretability    | ✓ High            | ~ Medium            | ✓ High    |
| High dimensions     | ✓ Good            | ✓ Good              | ✗ Bad     |
| Large data          | ✓ Good            | ✗ Bad               | ✗ Bad     |
+---------------------+-------------------+---------------------+-----------+

Recommendations:

    Logistic regression:
    ✓ Need probabilities, interpretability important, linear boundary sufficient
    ✓ Always start with it as baseline.

    SVM:
    ✓ Medium data volume (n < 10,000), high dimensionality
    ✓ Non-linear boundary (with kernel), need robustness to outliers

    KNN:
    ✓ Small data, complex boundary, no time to tune model
    ✓ Recommender systems, finding similar objects


===============================================================================
Neural Networks — Composition of Nonlinear Transformations
===============================================================================

-------------------------------------------------------------------------------
Idea and Structure
-------------------------------------------------------------------------------

Why are neural networks needed?

    Linear methods are limited: if the dependency is y = sin(x₁) + x₂³,
    a linear model won't cope.

    Neural network = composition of linear transformations and nonlinear activations.

Architecture (one hidden layer):

    f(x) = W₂ · σ(W₁x + b₁) + b₂

    where:
    • W₁ ∈ ℝʰˣⁿ, b₁ ∈ ℝʰ  (input → hidden layer, h neurons)
    • σ: ℝ → ℝ             (nonlinear activation, elementwise)
    • W₂ ∈ ℝᵏˣʰ, b₂ ∈ ℝᵏ  (hidden → output layer)

    x ∈ ℝⁿ  →  [W₁, b₁]  →  z ∈ ℝʰ  →  [σ]  →  a ∈ ℝʰ  →  [W₂, b₂]  →  y ∈ ℝᵏ
     input      affine        linear       nonlinearity    affine         output

Geometric interpretation:

    • W₁x + b₁ = affine transformation ℝⁿ → ℝʰ (rotation, stretching, shift)
    • σ = nonlinear deformation ("folding" of space)
    • W₂ = linear combination ℝʰ → ℝᵏ

    Composition yields nonlinear mapping ℝⁿ → ℝᵏ.

Activation functions:

    ReLU(z) = max(0, z)      ← most popular, "folds" half of space
    σ(z) = 1/(1+e⁻ᶻ)         ← sigmoid, compresses into (0,1)
    tanh(z) = (eᶻ-e⁻ᶻ)/(eᶻ+e⁻ᶻ)  ← compresses into (-1,1)

Universal Approximation Theorem:

    A neural network with one hidden layer and a sufficient number of neurons
    can approximate any continuous function.

 Two spaces in neural networks — key idea


 In ML there are two different spaces, and they must not be confused:

-------------------------------------------------------------------------------
 Data space (input space)
-------------------------------------------------------------------------------

   • Each point = one example (image, text, measurement)
   • Dimensionality = number of features (784 for MNIST, millions for LLM)
   • Neural network deforms this space so that classes become separable

   Picture: cloud of points of two colors. Initially mixed.
   After several layers — separated by hyperplane.

       Before training: after training:
       • ○ • ○ •                 • • • | ○ ○ ○
       ○ • ○ • ○                 • • • | ○ ○ ○
       • ○ • ○ •                 • • • | ○ ○ ○
       (mixed)                   (linearly separable)

-------------------------------------------------------------------------------
 Weight space (parameter space) — this is where training happens
-------------------------------------------------------------------------------

   • Each point = one set of weights θ = (W₁, b₁, W₂, b₂, ...)
   • Dimensionality = total number of parameters (millions or billions)
   • Loss function L(θ) — this is the "height" at each point

   Loss function landscape:

             ╱╲      ╱╲
            ╱  ╲    ╱  ╲         ← local maxima (bad)
       ----╱----╲--╱----╲----
              ╲╱                 ← saddle points (many)
           glob.min               ← want to get here

   Training = journey through this landscape in search of minimum.
   Gradient descent = "rolling down the slope".

 Why is this difficult:
   • Landscape in millions of dimensions — cannot be visualized
   • Many local minima and saddle points
   • Gradient can be huge or vanishingly small

 Surprising fact:
   In high dimensionality most critical points are saddles, not minima.
   Therefore gradient descent usually finds a path to a good solution.


 Tensor in ML ≠ tensor in mathematics


 In PyTorch/TensorFlow "tensor" is simply a multidimensional array of numbers:

   torch.tensor([1, 2, 3])           # "1D-tensor" = vector
   torch.tensor([[1,2], [3,4]])      # "2D-tensor" = matrix
   torch.randn(3, 4, 5)              # "3D-tensor" = 3×4×5 array

 In mathematics/physics tensor is an object that:
   • Transforms according to a specific law under change of coordinates
   • Covariant indices: T'ᵢ = (∂xʲ/∂x'ⁱ) Tⱼ
   • Contravariant: T'ⁱ = (∂x'ⁱ/∂xʲ) Tʲ

 +----------------------+-------------------+----------------------------+
 |                      | ML "TENSOR"       | MATHEMATICAL TENSOR        |
 +----------------------+-------------------+----------------------------+
 | What is it?          | Data container    | Geometric object           |
 | Depends on basis?    | Yes (just numbers)| No (invariant)             |
 | Transformation law   | No                | Yes (co/contravariance)    |
 | Example              | Batch of images   | Metric tensor gᵢⱼ          |
 +----------------------+-------------------+----------------------------+

 Why this is important:
   In ordinary ML covariance is not needed — there is no "change of coordinates".
   But in Geometric Deep Learning (graph networks, equivariant CNN)
   true tensor structure is required: output must correctly
   transform under rotation/reflection of input.


-------------------------------------------------------------------------------
Backpropagation — error backpropagation
-------------------------------------------------------------------------------

 Intuition: "error echo"


 Imagine: you shoot an arrow from a bow and miss.

   Miss (output error) = you hit 10 cm to the left.

   Who's to blame?
   • Maybe your hand trembled during the shot (last "layer")
   • Maybe you aimed poorly (middle "layer")
   • Maybe you stood incorrectly (first "layer")

   Backpropagation = distribution of blame from end to beginning.

   Error "reflects" from the output and goes backward through the network,
   like an echo, decaying or amplifying at each layer.

         input → [layer 1] → [layer 2] → [layer 3] → output
                                                  ↓
                                              Error
                                                  ↓
         ∂L/∂W₁ ← [δ₁] ← [δ₂] ← [δ₃] ← ∂L/∂output
                   ↑        ↑        ↑
              decays  (or amplifies) at each layer

 δ (delta) = "how much blame" this neuron bears for the final error.

 Vanishing gradient problem:
   If each layer multiplies δ by a number < 1, then δ₁ ≈ 0.
   First layers don't learn. (echo faded)

   ReLU solves this problem: gradient is either 0 or 1 (doesn't vanish).


Task: compute ∇L(θ) for all parameters θ = {W₁, b₁, W₂, b₂, ...}

Idea: apply chain rule for composition of functions.

    For f = g ∘ h:  ∂f/∂x = (∂g/∂h) · (∂h/∂x)

Algorithm:

    Forward pass (save intermediate values):
    for i = 1 to L:
        aⁱ = Wᵢzⁱ⁻¹ + bᵢ       (linear transformation)
        zⁱ = σᵢ(aⁱ)            (activation)

    Backward pass (compute gradients from end to beginning):

    δᴸ = ∂L/∂aᴸ               (gradient at last layer)

    for i = L-1 to 1:
        δⁱ = (Wᵢ₊₁ᵀ · δⁱ⁺¹) ⊙ σ'ᵢ(aⁱ)    (recurrent computation)

    Gradients with respect to parameters:
        ∂L/∂Wᵢ = δⁱ · (zⁱ⁻¹)ᵀ            (outer product)
        ∂L/∂bᵢ = δⁱ

Computational complexity: same as forward pass. O(Σᵢ nᵢ₋₁ · nᵢ)

Numerical example:

    Network: ℝ¹ → ℝ¹, one hidden neuron, ReLU
    f(x) = w₂ · ReLU(w₁x + b₁) + b₂

    Parameters: w₁=1, b₁=-1, w₂=2, b₂=0
    Data: x=2, y=5

    Forward:
    a¹ = w₁·x + b₁ = 1·2 + (-1) = 1
    z¹ = ReLU(1) = 1
    ŷ = w₂·z¹ + b₂ = 2·1 + 0 = 2
    L = ½(ŷ-y)² = ½(2-5)² = 4.5

    Backward:
    ∂L/∂ŷ = ŷ - y = -3

    ∂L/∂w₂ = ∂L/∂ŷ · z¹ = -3 · 1 = -3
    ∂L/∂b₂ = ∂L/∂ŷ · 1 = -3

    δ¹ = ∂L/∂ŷ · w₂ · ReLU'(a¹) = -3 · 2 · 1 = -6

    ∂L/∂w₁ = δ¹ · x = -6 · 2 = -12
    ∂L/∂b₁ = δ¹ · 1 = -6


-------------------------------------------------------------------------------
Optimization
-------------------------------------------------------------------------------

Gradient descent:

    θₜ₊₁ = θₜ - η · ∇L(θₜ)

    η = learning rate

Variants:

    Batch GD:     gradient over entire sample — accurate, but slow

    SGD:          gradient over one example — noisy, but fast

    Mini-batch:   gradient over batch of B examples — compromise (B=32,64,128)

Momentum:

    vₜ = β·vₜ₋₁ + ∇L(θₜ)        (accumulation of "velocity")
    θₜ₊₁ = θₜ - η·vₜ

    Analogy: ball rolling down a hill with inertia

Adam (Adaptive Moment Estimation):

    mₜ = β₁·mₜ₋₁ + (1-β₁)·∇L             (gradient mean)
    vₜ = β₂·vₜ₋₁ + (1-β₂)·(∇L)²          (gradient square mean)

    m̂ₜ = mₜ / (1-β₁ᵗ),  v̂ₜ = vₜ / (1-β₂ᵗ)   (bias correction for zero init)

    θₜ₊₁ = θₜ - η · m̂ₜ / (√v̂ₜ + ε)

    Each parameter has its own adaptive learning rate.
    Standard values: β₁ = 0.9, β₂ = 0.999, ε = 10⁻⁸.


-------------------------------------------------------------------------------
Convolutional Neural Networks (CNN)
-------------------------------------------------------------------------------

Problem of fully connected networks for images:

    MNIST 28×28: 784 inputs → W₁ ∈ ℝ¹²⁸ˣ⁷⁸⁴ = 100k parameters
    ImageNet 224×224×3: 150,528 inputs → W₁ ∈ ℝ¹²⁸ˣ¹⁵⁰⁵²⁸ = 19M parameters.

    and this is only one layer.

CNN ideas:

    1. Locality: each neuron looks only at k×k neighborhood
    2. Weight sharing: one filter is used for all positions
    3. Hierarchy: edges → textures → parts → objects

Convolution:

    Y[i,j] = Σₘ Σₙ K[m,n] · X[i+m, j+n]

    Geometrically: dot product of kernel K with image patch

Example (vertical edge detector):

    X = [1  2  3  0]     K = [-1  1]
        [0  1  2  3]         [-1  1]
        [3  0  1  2]
        [4  2  0  1]

    Y[0,0] = (-1)·1 + 1·2 + (-1)·0 + 1·1 = 2   (vertical edge present)

Pooling:

    Max Pooling: Y[i,j] = max{X[2i+m, 2j+n] | m,n ∈ {0,1}}

    • Reduces dimensionality by factor of 2 along each axis
    • Provides local shift invariance
    • No trainable parameters

Typical architecture:

    Input → [Conv-ReLU-Pool]×N → Flatten → FC → Output

    LeNet-5 example:
    INPUT 28×28×1 → CONV1 24×24×20 → POOL 12×12×20 →
    → CONV2 8×8×50 → POOL 4×4×50 → FLATTEN 800 → FC 500 → FC 10

Parameter savings:

    Convolutional layer k=3, Cᵢₙ=64, Cₒᵤₜ=128:
        Parameters = 3² · 64 · 128 + 128 ≈ 74k

    Fully connected layer for image 32×32×64 → 32×32×128:
        Parameters = (32·32·64) · (32·32·128) = 8.6 billion.

    CNN saves parameters by 4-5 orders of magnitude.

Feature hierarchy:

    Layer 1-2:   Edges, corners, simple gradients (receptive field 3-7 px)
    Layer 3-5:   Textures, repeating patterns (RF 20-50 px)
    Layer 6-8:   Object parts (eyes, wheels) (RF 100+ px)
    Final:       Classification by high-level features


-------------------------------------------------------------------------------
Comparison of classical methods and neural networks
-------------------------------------------------------------------------------

+--------------------+------------------------+--------------------------+
| Criterion          | Linear methods         | Neural networks          |
+--------------------+------------------------+--------------------------+
| Parameters         | O(n)                   | O(h·n) or more           |
| Solution           | Closed form or convex  | Iterative, non-convex    |
| Expressiveness     | Only linear            | Arbitrary continuous     |
| Interpretability   | High                   | Low                      |
| Data               | Works on small         | Requires a lot of data   |
| Computation        | Easy on CPU            | Requires GPU             |
+--------------------+------------------------+--------------------------+

When to use what:

    Linear methods:
    ✓ n < 1000 features
    ✓ Dependency close to linear
    ✓ Interpretability important
    ✓ Little data (N < 10,000)

    Neural networks:
    ✓ n > 1000 features (images, text)
    ✓ Nonlinear dependencies
    ✓ A lot of data (N > 100,000)
    ✓ GPU available


▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
              PART V: NUMERICAL METHODS — TOOLS FOR COMPUTATION
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

 Why this section


 The Atlas so far has been about understanding mathematics.
 This section is about computation: ready-made algorithms for practical problems.

 Each method is described as follows:
   1. Problem (what we solve)
   2. Algorithm (step by step)
   3. Example with numbers
   4. When to use / when not to use
   5. Code (pseudocode or Python-like)


 Connection with theory — why methods work


 Numerical methods are not just "recipes". Behind each one stands a theorem.

 +-----------------------+---------------------------------------------+
 | METHOD                | THEORETICAL JUSTIFICATION                   |
 +-----------------------+---------------------------------------------+
 | Bisection             | Intermediate value theorem:                 |
 |                       | continuous function takes all values        |
 |                       | between f(a) and f(b)                       |
 +-----------------------+---------------------------------------------+
 | Newton                | Banach fixed-point theorem:                 |
 |                       | iterations xₙ₊₁ = g(xₙ) converge if g is a  |
 |                       | contraction. Newton: g(x) = x − f(x)/f'(x)  |
 +-----------------------+---------------------------------------------+
 | Gauss (LU-decomp.)    | Factorization in group GL(n):               |
 |                       | any invertible matrix = product of          |
 |                       | elementary (permutation, scale, shear)      |
 +-----------------------+---------------------------------------------+
 | Quadratures           | Integral as linear functional:              |
 |                       | ∫ω is a covector on function space.         |
 |                       | Quadratures — finite-dimensional approx.    |
 +-----------------------+---------------------------------------------+
 | FFT                   | Orthogonality of exp(2πikn/N) in L²:        |
 |                       | discrete analog of Fourier expansion.       |
 |                       | Speed = recursion over group ℤ/Nℤ           |
 +-----------------------+---------------------------------------------+
 | Runge–Kutta           | Taylor expansion + coefficient matching     |
 |                       | for maximum order                           |
 +-----------------------+---------------------------------------------+
 | Gradient descent      | Derivative as covector:                     |
 |                       | ∇f ∈ T*M points in direction of growth.     |
 |                       | Metric g converts it to vector −g⁻¹∇f       |
 +-----------------------+---------------------------------------------+

 Understanding theory helps:
   • Predict when method will NOT work
   • Choose right method for problem
   • Estimate error without experiment


===============================================================================
Solving nonlinear equations f(x) = 0
===============================================================================

 Bisection method


 Problem: Find root f(x) = 0 on interval [a, b], where f(a) and f(b) have
          different signs.

 Idea: Divide interval in half, choose half with different signs, repeat.

 Algorithm:
   1. c = (a + b) / 2
   2. If f(c) ≈ 0 — found root
   3. If f(a) and f(c) have different signs — root in [a, c], take b = c
   4. Otherwise — root in [c, b], take a = c
   5. Repeat until desired accuracy

 Example: f(x) = x³ − x − 1, find root on [1, 2]

   Check: f(1) = 1 − 1 − 1 = −1 < 0
          f(2) = 8 − 2 − 1 = 5 > 0   ✓ Different signs

   Step 1: c = 1.5, f(1.5) = 3.375 − 1.5 − 1 = 0.875 > 0
           Root in [1, 1.5]

   Step 2: c = 1.25, f(1.25) = 1.953 − 1.25 − 1 = −0.297 < 0
           Root in [1.25, 1.5]

   Step 3: c = 1.375, f(1.375) = 2.600 − 1.375 − 1 = 0.224 > 0
           Root in [1.25, 1.375]

   Step 4: c = 1.3125, f(1.3125) ≈ −0.051 < 0
           Root in [1.3125, 1.375]

   … Continue until desired accuracy. Answer: x ≈ 1.3247

 Convergence: Linear. Each iteration halves the interval.
              After n iterations: error ≤ (b−a)/2ⁿ
              For 6 decimal places need ≈ 20 iterations.

 ✓ When to use: Always works if there is sign change
 ✗ When not to use: Slow, doesn't work for multiple roots

 Code:
   while b - a > eps:
       c = (a + b) / 2
       if f(a) * f(c) < 0:
           b = c
       else:
           a = c
   return c


 Newton's method (tangent method)


 Problem: Find root f(x) = 0, given initial approximation x₀.

 Idea: Replace curve with tangent, find intersection with x-axis.

 Formula:

   xₙ₊₁ = xₙ − f(xₙ) / f'(xₙ)

 Geometrically:

       y
       |     ╱
       |    ╱ f(x)
       |   ●----------------- tangent at xₙ
       |  ╱|
       | ╱ |
       |╱  |
   ----●---+---------------→ x
     x*   xₙ₊₁  xₙ

   Tangent line: y = f(xₙ) + f'(xₙ)(x − xₙ)
   Intersection with y = 0: xₙ₊₁ = xₙ − f(xₙ)/f'(xₙ)

 Example: f(x) = x² − 2 (finding √2), x₀ = 1

   f(x) = x² − 2,  f'(x) = 2x

   Step 1: x₁ = 1 − (1 − 2)/(2·1) = 1 − (−1)/2 = 1.5

   Step 2: x₂ = 1.5 − (2.25 − 2)/(2·1.5) = 1.5 − 0.25/3 = 1.4167

   Step 3: x₃ = 1.4167 − (2.007 − 2)/(2·1.4167) = 1.4142

   Already 4 digits after 3 iterations. (√2 ≈ 1.41421356)

 Convergence: Quadratic. Number of correct digits doubles each iteration.

 ✓ When to use: Fast, if good initial approximation
 ✗ When not to use:
   • f'(x) = 0 near root (division by 0)
   • Bad x₀ (may go wrong way or cycle)
   • Need to be able to compute derivative

 Code:
   x = x0
   for i in range(max_iter):
       x = x - f(x) / df(x)
       if abs(f(x)) < eps:
           break
   return x


 Secant method


 Idea: Like Newton, but replace derivative with difference quotient.
       Don't need to know f'(x)!

 Formula:

   xₙ₊₁ = xₙ − f(xₙ) · (xₙ − xₙ₋₁) / (f(xₙ) − f(xₙ₋₁))

 Convergence: Superlinear (order ≈ 1.618, golden ratio)
             Slower than Newton, but no derivative needed.

 ✓ When to use: When f'(x) is difficult to compute


 Comparison of methods
+----------+----------------+----------------+-----------------------+
| METHOD   | CONVERGENCE    | REQUIRED       | RELIABILITY           |
+----------+----------------+----------------+-----------------------+
| Bisection| Linear         | [a,b] with diff| 100% if root exists   |
|          | (slow)         | signs          |                       |
+----------+----------------+----------------+-----------------------+
| Newton   | Quadratic      | f'(x), good x₀ | May diverge           |
|          | (very fast)    |                |                       |
+----------+----------------+----------------+-----------------------+
| Secant   | Superlinear    | Two initial    | May diverge           |
|          | (~1.618)       | points         |                       |
+----------+----------------+----------------+-----------------------+

 Engineering trade-offs: accuracy vs cost


 Computer doesn't know which method is "better". Engineer must choose.

 Question: Why not always use the most accurate method (Newton)?

   Answer: Each call to f'(x) is computation.
   If f(x) is a complex function (simulation, DB query), it's expensive.

 Example: Finding optimal reactor temperature

   f(T) = product yield at temperature T
   One call to f(T) = running simulation for 10 minutes

   Bisection: 20 iterations × 1 call = 20 calls = 200 minutes
   Newton:   5 iterations × 2 calls (f and f') = 10 calls = 100 minutes

   But: if f' needs to be computed numerically (2 more calls to f), then:
   Newton: 5 × 3 = 15 calls = 150 minutes ← not so advantageous anymore.

 Rule: Choose method based on cost of function call.

   • f cheap (formula) → Newton
   • f expensive (simulation) → bisection or derivative-free methods
   • f with noise (experiment) → methods stable to noise


Practical recommendation:
  Bisection for reliability → Newton for accuracy (combined method)


===============================================================================
Numerical integration
===============================================================================

 Trapezoidal rule


 Problem: Compute ∫ₐᵇ f(x) dx

 Idea: Replace curve with piecewise linear (trapezoids).

   y|    ╱╲
    |   ╱  ╲
    |  ╱    ╲
    | ╱------╲-------- ← piecewise linear (trapezoids)
    |╱        ╲
    +----------------→ x
     a  x₁ x₂  ...  b

 Formula (n equal intervals, h = (b−a)/n):

   ∫ₐᵇ f(x) dx ≈ h · [f(a)/2 + f(x₁) + f(x₂) + ... + f(xₙ₋₁) + f(b)/2]

 Example: ∫₀¹ x² dx, n = 4 (exact answer = 1/3 ≈ 0.333)

   h = 1/4 = 0.25
   Points: x₀ = 0, x₁ = 0.25, x₂ = 0.5, x₃ = 0.75, x₄ = 1
   Values: f = 0, 0.0625, 0.25, 0.5625, 1

   I ≈ 0.25 × [0/2 + 0.0625 + 0.25 + 0.5625 + 1/2]
     = 0.25 × [0 + 0.0625 + 0.25 + 0.5625 + 0.5]
     = 0.25 × 1.375 = 0.34375

   Error: 0.34375 − 0.333... = 0.01  (about 3%)

 Error: O(h²) — halving h reduces error by factor of four


 Simpson's rule (parabolas)


 Idea: Replace curve with parabolas (more accurate than trapezoids).
       Requires even number of intervals n.

 Formula:

   ∫ₐᵇ f dx ≈ (h/3) · [f(a) + 4f(x₁) + 2f(x₂) + 4f(x₃) + ... + f(b)]

   Coefficients: 1, 4, 2, 4, 2, 4, ..., 2, 4, 1

 Example: ∫₀¹ x² dx, n = 4

   I ≈ (0.25/3) × [0 + 4×0.0625 + 2×0.25 + 4×0.5625 + 1]
     = (0.25/3) × [0 + 0.25 + 0.5 + 2.25 + 1]
     = (0.25/3) × 4 = 0.3333...

   Exact answer. (Simpson is exact for polynomials up to degree 3)

 Error: O(h⁴) — much more accurate than trapezoids.

 ✓ When to use: Almost always better than trapezoids
 ✗ When not to use: Discontinuous functions, strong oscillations

 Code:
   h = (b - a) / n
   I = f(a) + f(b)
   for i in range(1, n):
       x = a + i * h
       if i % 2 == 1:
           I += 4 * f(x)
       else:
           I += 2 * f(x)
   return I * h / 3


 Gaussian quadrature — maximum accuracy


 Idea: Choose points xᵢ and weights wᵢ optimally (not uniformly)

   ∫₋₁¹ f(x) dx ≈ Σᵢ wᵢ f(xᵢ)

 Table of nodes and weights (on [−1, 1]):

 +---+---------------------+----------------------------+
 | n | NODES xᵢ            | WEIGHTS wᵢ                 |
 +---+---------------------+----------------------------+
 | 1 | 0                   | 2                          |
 | 2 | ±1/√3 ≈ ±0.577      | 1, 1                       |
 | 3 | 0, ±√(3/5) ≈ ±0.775 | 8/9, 5/9, 5/9              |
 | 4 | ±0.340, ±0.861      | 0.653, 0.653, 0.348, 0.348 |
 +---+---------------------+----------------------------+

 Accuracy: n Gaussian points integrate exactly polynomials up to degree 2n−1!
           (Simpson with 3 points — only up to degree 3)

 For arbitrary [a, b]:
   Substitution: x = (b−a)t/2 + (a+b)/2,  t ∈ [−1, 1]
   dx = (b−a)/2 dt


===============================================================================
Solving Systems of Linear Equations Ax = b
===============================================================================

 Gaussian Elimination (direct method)


 Idea: Reduce the matrix to triangular form, solve by back substitution.

 Algorithm:

 1. forward elimination: Zero out elements below the diagonal

    + a₁₁  a₁₂  a₁₃ | b₁ +      + a₁₁  a₁₂  a₁₃ | b₁  +
    | a₂₁  a₂₂  a₂₃ | b₂ |  →   |  0   a'₂₂ a'₂₃| b'₂ |
    + a₃₁  a₃₂  a₃₃ | b₃ +      +  0    0   a"₃₃| b"₃ +

 2. back substitution: Find xₙ, then xₙ₋₁, ..., x₁

    x₃ = b"₃ / a"₃₃
    x₂ = (b'₂ − a'₂₃ x₃) / a'₂₂
    x₁ = (b₁ − a₁₂ x₂ − a₁₃ x₃) / a₁₁

 Example:
    2x + y − z = 8
   −3x − y + 2z = −11
   −2x + y + 2z = −3

   Augmented matrix:
   +  2   1  −1 |  8  +
   | −3  −1   2 |−11  |
   + −2   1   2 | −3  +

   Step 1: R₂ → R₂ + (3/2)R₁,  R₃ → R₃ + R₁
   +  2    1    −1  |   8   +
   |  0   0.5   0.5 |   1   |
   +  0    2     1  |   5   +

   Step 2: R₃ → R₃ − 4R₂
   +  2    1    −1  |   8   +
   |  0   0.5   0.5 |   1   |
   +  0    0    −1  |   1   +

   Back substitution:
   z = 1/(−1) = −1
   y = (1 − 0.5×(−1)) / 0.5 = 1.5/0.5 = 3
   x = (8 − 1×3 − (−1)×(−1)) / 2 = 4/2 = 2

   Answer: x = 2, y = 3, z = −1

 Complexity: O(n³) operations

 Important: Pivoting for numerical stability.


 LU decomposition


 Idea: Decompose A = LU, where L is lower triangular, U is upper triangular.

 Why: If we need to solve many systems with the same A but different b.
      Ax = b → LUx = b → Ly = b (easy), Ux = y (easy).

 Decomposition is done once (O(n³)), then each solution — O(n²).


 Simple iteration method (for large sparse systems)


 Idea: Transform Ax = b into x = Bx + c and iterate: xₙ₊₁ = Bxₙ + c

 Convergence: If ‖B‖ < 1 (spectral radius < 1)

 Jacobi and Gauss–Seidel methods — specific ways to construct B and c.

 ✓ When to use: Very large sparse matrices (thousands × thousands)
 ✗ When not to use: Dense matrices — Gaussian elimination is faster


===============================================================================
Numerical Solution of ODEs
===============================================================================

 Cauchy problem: y' = f(t, y), y(t₀) = y₀


 Find function y(t), knowing the initial condition and differential equation.


 Euler's method (simplest)


 Idea: Replace derivative with difference: y' ≈ (yₙ₊₁ − yₙ)/h

 Formula:
   yₙ₊₁ = yₙ + h · f(tₙ, yₙ)

 Geometrically: Go along the tangent for step h

       y
       |      ●--→ where we go (Euler)
       |     ╱ ╲
       |    ╱   ╲ where we actually go
       |   ●
       |  yₙ
       +-------------→ t
          tₙ   tₙ₊₁

 Example: y' = y, y(0) = 1 (solution: y = eᵗ)

   h = 0.1,  f(t, y) = y

   y₀ = 1
   y₁ = 1 + 0.1×1 = 1.1
   y₂ = 1.1 + 0.1×1.1 = 1.21
   y₃ = 1.21 + 0.1×1.21 = 1.331
   ...
   y₁₀ = y(1) ≈ 2.594  (exact: e¹ ≈ 2.718)

   Error ≈ 5% over 10 steps. Not very accurate.

 Error: O(h) per step, O(h) globally — first-order method

 ✓ When to use: Quick prototype, learning
 ✗ When not to use: When accuracy is needed


 4th-order Runge–Kutta method (rk4) — workhorse


 Idea: Estimate slope at several points and average.

 Formulas:

   k₁ = f(tₙ, yₙ)
   k₂ = f(tₙ + h/2, yₙ + h·k₁/2)
   k₃ = f(tₙ + h/2, yₙ + h·k₂/2)
   k₄ = f(tₙ + h, yₙ + h·k₃)

   yₙ₊₁ = yₙ + (h/6)(k₁ + 2k₂ + 2k₃ + k₄)

 Intuition:
   k₁ — slope at the beginning
   k₂ — slope at the midpoint (by estimate k₁)
   k₃ — slope at the midpoint (by estimate k₂, more accurate)
   k₄ — slope at the end
   Result — weighted average: (1×k₁ + 2×k₂ + 2×k₃ + 1×k₄)/6

 Example: y' = y, y(0) = 1, h = 0.1

   k₁ = 1
   k₂ = 1 + 0.1×1/2 = 1.05
   k₃ = 1 + 0.1×1.05/2 = 1.0525
   k₄ = 1 + 0.1×1.0525 = 1.10525

   y₁ = 1 + (0.1/6)(1 + 2×1.05 + 2×1.0525 + 1.10525)
      = 1 + (0.1/6)×6.31025 = 1.10517.

   Exact: e^0.1 = 1.10517.  ← Matches to 5 digits in 1 step.

 Error: O(h⁴) per step, O(h⁴) globally — 4th-order method

 ✓ When to use: Universal method, suitable for most problems
 ✗ When not to use:
   • Stiff equations (implicit methods needed)
   • Very high accuracy (adaptive step needed)

 Code:
   def rk4_step(f, t, y, h):
       k1 = f(t, y)
       k2 = f(t + h/2, y + h*k1/2)
       k3 = f(t + h/2, y + h*k2/2)
       k4 = f(t + h, y + h*k3)
       return y + h/6 * (k1 + 2*k2 + 2*k3 + k4)


 Comparison of ODE methods
+-----------------+---------+--------------+-----------------------+
| METHOD          | ORDER   | f EVALUATIONS| When to USE           |
|                 |         | PER STEP     |                       |
+-----------------+---------+--------------+-----------------------+
| Euler           | 1       | 1            | Learning, prototype   |
+-----------------+---------+--------------+-----------------------+
| RK2 (Heun)      | 2       | 2            | Fast rough estimates  |
+-----------------+---------+--------------+-----------------------+
| RK4             | 4       | 4            | Universal             |
+-----------------+---------+--------------+-----------------------+
| Adaptive RK     | 4-5     | 6            | High accuracy,        |
| (Dormand-Prince)|         |              | variable step         |
+-----------------+---------+--------------+-----------------------+
| Implicit Euler  | 1       | iterations   | Stiff equations       |
+-----------------+---------+--------------+-----------------------+


===============================================================================
Interpolation
===============================================================================

 Problem: Construct a function passing through given points (xᵢ, yᵢ)


 Polynomial interpolation:
   n+1 points → polynomial of degree n (unique)


 Lagrange interpolation


 Formula:

   P(x) = Σᵢ yᵢ · Lᵢ(x)

   where Lᵢ(x) = ∏ⱼ≠ᵢ (x − xⱼ)/(xᵢ − xⱼ)

 Property of Lᵢ: equals 1 at point xᵢ, equals 0 at remaining nodes.

 Example: Points (0, 1), (1, 3), (2, 2)

   L₀(x) = (x−1)(x−2)/((0−1)(0−2)) = (x−1)(x−2)/2
   L₁(x) = (x−0)(x−2)/((1−0)(1−2)) = x(x−2)/(−1) = −x(x−2)
   L₂(x) = (x−0)(x−1)/((2−0)(2−1)) = x(x−1)/2

   P(x) = 1·(x−1)(x−2)/2 + 3·(−x(x−2)) + 2·x(x−1)/2
        = (x²−3x+2)/2 − 3x² + 6x + x² − x
        = −1.5x² + 3.5x + 1

   Verification: P(0) = 1 ✓, P(1) = −1.5 + 3.5 + 1 = 3 ✓, P(2) = −6 + 7 + 1 = 2 ✓

 Problem: With large number of points polynomial oscillates strongly.
              (Runge phenomenon)


 Spline interpolation (cubic spline)


 Idea: Between each pair of points — own cubic polynomial,
       but they are "smoothly stitched" (values, first and second derivatives match)

       y
       |    ●
       |   ╱ ╲         ● ← nodes
       |  ╱   ●-------╱
       | ●
       +----------------→ x
         smooth curve, does not oscillate

 Advantages:
   • No Runge oscillations
   • Smooth curve (C² — continuous up to 2nd derivative)
   • Locality: changing one point affects only neighboring segments

 ✓ When to use: Practically always better than polynomial


===============================================================================
Optimization (function minimization)
===============================================================================

 Gradient descent


 Problem: Find minimum of f(x), x ∈ ℝⁿ

 Idea: Move in direction of steepest descent = against gradient

 Algorithm:
   xₙ₊₁ = xₙ − α · ∇f(xₙ)

   where α — step (learning rate)

       ╭--------------------╮
      ╱    ↘                 ╲
     |       ↘                |      Descent along "slope"
     |         ↘    ●        |      to minimum
      ╲          ↘          ╱
       ╰--------------------╯

 Example: f(x, y) = x² + y², start (3, 4), α = 0.1

   ∇f = (2x, 2y)

   Step 1: (3, 4) − 0.1×(6, 8) = (3−0.6, 4−0.8) = (2.4, 3.2)
   Step 2: (2.4, 3.2) − 0.1×(4.8, 6.4) = (1.92, 2.56)
   ...
   Converges to (0, 0)

 Choice of α:
   • Too large — diverges, "jumps" over minimum
   • Too small — converges very slowly
   • Adaptive methods (Adam, RMSprop) — automatically adjust α

 ✓ When to use: Smooth functions, machine learning
 ✗ When not to use: Many local minima, discontinuous functions


 Newton's method for optimization


 Idea: Approximate f by quadratic function, find its minimum.

 Formula:
   xₙ₊₁ = xₙ − H⁻¹(xₙ) · ∇f(xₙ)

   where H — Hessian matrix (second derivatives)

 Convergence: Quadratic (very fast)

 ✓ When to use: Function is smooth, dimension is small
 ✗ When not to use:
   • Large dimension (H⁻¹ expensive to compute)
   • H is degenerate or negative definite (saddle points)

 Quasi-Newton methods (BFGS, L-BFGS):
   Approximate H⁻¹ without explicit computation — compromise between
   convergence speed and iteration cost.


===============================================================================
Fast Fourier Transform (FFT)
===============================================================================

 Problem and idea


 Problem: Compute discrete Fourier transform (DFT):

   Xₖ = Σⁿ⁻¹ⱼ₌₀ xⱼ · e^{−2πijk/n}

 Direct calculation: O(n²) operations
 FFT (Cooley-Tukey): O(n log n) operations.

 Speedup: For n = 1024:  direct = 1 million operations
                            FFT = 10 thousand operations (100 times faster)

 Idea: Divide and conquer. Split into even and odd indices,
       recursively compute, combine in O(n).

 Applications:
   • Signal and audio processing
   • Image compression (JPEG)
   • Spectral analysis
   • Fast polynomial and large number multiplication
   • Solving PDEs by spectral methods

 Code (recursive, for understanding):
   def fft(x):
       n = len(x)
       if n == 1: return x
       even = fft(x[0::2])   # even indices
       odd = fft(x[1::2])    # odd indices
       W = [exp(-2j*pi*k/n) for k in range(n//2)]
       return [even[k] + W[k]*odd[k] for k in range(n//2)] + \
              [even[k] - W[k]*odd[k] for k in range(n//2)]


===============================================================================
Quick reference: which method to choose
===============================================================================

 Solving equations f(x) = 0
+-------------------------------+-------------------------------------+
| SITUATION                     | RECOMMENDATION                      |
+-------------------------------+-------------------------------------+
| Have interval with sign change| Bisection (reliable) + Newton (accurate) |
| Have good initial approximation| Newton                              |
| No derivative available       | Secant or Brent                     |
| System of nonlinear equations | Multidimensional Newton             |
+-------------------------------+-------------------------------------+

 Numerical integration
+-----------------------+---------------------------------------+
| SITUATION             | RECOMMENDATION                        |
+-----------------------+---------------------------------------+
| Smooth function       | Simpson or Gauss                      |
| Need adaptivity       | Adaptive Simpson (refine where needed)|
| Multidimensional integral | Monte Carlo                       |
| Oscillating function  | Special methods (Filon)               |
+-----------------------+---------------------------------------+

 Linear systems Ax = b
+------------------------------+------------------------------------+
| SITUATION                    | RECOMMENDATION                     |
+------------------------------+------------------------------------+
| Small dense matrix           | LU decomposition                   |
| Many systems with same A     | LU once, then fast solutions       |
| Symmetric positive definite  | Cholesky (A = LLᵀ)                 |
| Large sparse                 | Iterative (CG, GMRES)              |
| Very large (>10⁶)         | Multigrid methods                  |
+------------------------------+------------------------------------+

 Ordinary differential equations
+--------------------------------+--------------------------------+
| SITUATION                      | RECOMMENDATION                 |
+--------------------------------+--------------------------------+
| Ordinary problem, need accuracy| RK4 or adaptive RK (dopri5)    |
| Stiff equation                 | Implicit methods (BDF, Radau)  |
| Energy conservation (Hamiltonian)| Symplectic methods (Verlet) |
| Long-term integration          | Multistep (Adams-Bashforth)    |
+--------------------------------+--------------------------------+

 Optimization
+----------------------------+--------------------------------------------+
| SITUATION                  | RECOMMENDATION                             |
+----------------------------+--------------------------------------------+
| Smooth, small dimension    | BFGS                                       |
| Large dimension (ML)       | Adam, SGD                                  |
| Constraints (inequalities) | Interior point, SQP                        |
| Global optimum             | Genetic algorithms, annealing              |
| Convex function            | Any gradient — will converge to global     |
+----------------------------+--------------------------------------------+

===============================================================================
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                      PART VI: REFERENCE
▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄

===============================================================================
Dictionary: programming ↔ mathematics
===============================================================================

Basic programming concepts in the language of set theory.

 Basic concepts


 Variable
 ----------
 Programming:  x = 5

 Mathematics:
   Variable = name (identifier) for an element of some set
   Formally: function from name space to set of values
   Var: Names → Values,  Var("x") = 5 ∈ ℤ

 Key difference:
   In mathematics: x = 5 → assertion (x always equals 5)
   In programming: x = 5 → assignment (put 5 in box "x")

-------------------------------------------------------------------------------

 Assignment
 ------------
 Programming:  x = 5;  x = x + 1  # now x = 6

 Mathematics:
   Assignment = updating mapping (sequence of states)
   Var₀("x") = 5
   Var₁("x") = Var₀("x") + 1 = 6

 NOT mathematical equality.
   x = x + 1  (in programming) ≠ x = x + 1 (in mathematics — contradiction)

-------------------------------------------------------------------------------

 Type
 ---
 Programming:  x: int = 5;  y: float = 3.14;  s: str = "text"

 Mathematics:
   Type = set of possible values

   int ≈ ℤ (integers)
   float ≈ ℝ (real numbers, with precision limitations)
   str = set of all finite sequences of characters
   bool = {True, False} ≈ {⊤, ⊥}

   Typing = restriction of domain of values: x: int means x ∈ ℤ


 Logical operations


 Condition (if)
 ------------
 Programming:
   if condition:
       action_1
   else:
       action_2

 Mathematics (piecewise function):
   f(x) = { g₁(x),  if P(x)
          { g₂(x),  if ¬P(x)

   where P(x) — predicate (logical condition)

-------------------------------------------------------------------------------

 Logical operators
 ---------------------

   Programming       |  Mathematics (logic)  |  Geometry (sets)
   ------------------+-----------------------+------------------------
   and               |  ∧ (conjunction)      |  ∩ (intersection)
   or                |  ∨ (disjunction)      |  ∪ (union)
   not               |  ¬ (negation)         |  ᶜ (complement)


 Flow control


 for loop
 --------
 Programming:  for x in S: f(x)

 Mathematics:
   Application of function f to each element of set S
   ∀x ∈ S: f(x)
   If collecting results: ⋃_{x ∈ S} {f(x)}

-------------------------------------------------------------------------------

 while loop
 ----------
 Programming:  while condition: action

 Mathematics:
   Iteration until stopping condition is reached
   xₙ₊₁ = f(xₙ)  while  P(xₙ) = ⊤
   Stopping when P(xₙ) = ⊥

-------------------------------------------------------------------------------

 Function
 -------
 Programming:
   def f(x, y):
       return x + y

 Mathematics:
   f: X × Y → Z,  f(x, y) = x + y

 Key:
   • Function in programming can have side effects
   • Mathematical function — pure mapping

 Pure function (pure):   def pure(x): return x * 2
 Impure (impure):        def impure(x): global counter; counter += 1

-------------------------------------------------------------------------------

 Recursion
 --------
 Programming:
   def factorial(n):
       if n == 0: return 1
       else: return n * factorial(n-1)

 Mathematics (recurrence definition):
   f: ℕ → ℕ
   f(0) = 1              (base)
   f(n) = n · f(n−1)     (recurrence step)


 Data structures


 List (list)
 -------------
 Programming:  L = [1, 2, 3]

 Mathematics:
   Finite sequence = function from {0, 1, ..., n−1} to set
   L: {0, 1, 2} → ℤ,  L(0)=1, L(1)=2, L(2)=3
   Ordered tuple: (1, 2, 3) ∈ ℤ³

-------------------------------------------------------------------------------

 Set (set)
 ---------------
 Programming:  S = {1, 2, 3}

 Mathematics:
   Set = collection without order and repetitions
   S = {1, 2, 3} ⊂ ℤ

   Operations: S ∪ T (union), S ∩ T (intersection), S \ T (difference)

-------------------------------------------------------------------------------

 Dictionary (dict)
 --------------
 Programming:  d = {'a': 1, 'b': 2}

 Mathematics:
   Dictionary = partial function from Keys to Values
   d: K ⇀ V,  d('a') = 1, d('b') = 2

   As set of pairs: d ⊂ K × V

-------------------------------------------------------------------------------

 Class and object
 --------------
 Programming:
   class Point:
       def __init__(self, x, y):
           self.x = x
           self.y = y
   p = Point(3, 4)

 Mathematics:
   Class = algebraic structure (set + operations + axioms)
   Point = (ℝ × ℝ, {distance, move, ...})
   Object = element of this set: p = (3, 4) ∈ ℝ²

   Inheritance = nesting of structures (substructure inherits operations)


 Functional programming


 Lambda function
 ---------------
Programming:  f = lambda x: x**2
 Mathematics:        f = λx. x²  (λ-calculus)

-------------------------------------------------------------------------------

 Map
 ---
 Programming:  map(f, [1,2,3]) → [f(1), f(2), f(3)]
 Mathematics:        (f(x₁), f(x₂), f(x₃)) — pointwise application of function

-------------------------------------------------------------------------------

 Filter
 ------
 Programming:  filter(P, L) — elements for which P(x) = True
 Mathematics:        {x ∈ L : P(x)} — selection of subset by predicate

-------------------------------------------------------------------------------

 Reduce (fold)
 -------------
 Programming:  reduce(⊕, [a,b,c], init) → ((init ⊕ a) ⊕ b) ⊕ c
 Mathematics:        Fold: composition of binary operation over list
                    reduce(+, [1,2,3], 0) = 0+1+2+3 = 6

-------------------------------------------------------------------------------

 List comprehension
 ------------------
 Programming:  [f(x) for x in S if P(x)]
 Mathematics:        {f(x) : x ∈ S, P(x)} — set definition

-------------------------------------------------------------------------------

 Function composition
 ------------------
 Programming:  compose(f, g)(x) = f(g(x))
 Mathematics:        (f ∘ g)(x) = f(g(x))

-------------------------------------------------------------------------------

 Decorator
 ---------
 Programming:
   @decorator
   def f(x): ...

 Mathematics:
   Higher-order function: decorator: (X → Y) → (X → Y)
   f̃ = decorator(f)

   Geometrically — wrapper:
        +-----------+
        | decorator |
        | +-------+ |
    x --|→ |   f   | -|→ y
        |  +-------+  |
        +-------------+


 Special concepts


 Global state
 --------------------
 Programming:
   counter = 0
   def increment(): global counter; counter += 1

 Mathematics:
   Function with side effect: f: X × Env → Y × Env
   Input + state → output + new state

   State monad: State s a = s → (a, s)

-------------------------------------------------------------------------------

 Iterator
 --------
 Programming:
   it = iter([1, 2, 3])
   next(it)  # 1
   next(it)  # 2

 Mathematics:
   Iterator = pair (state, transition function)
   Iterator = (S, next: S → S × V ∪ {Stop})
   Automaton: s₀ -next→ (v₁, s₁) -next→ (v₂, s₂) → ...

-------------------------------------------------------------------------------

 Lazy evaluation
 ------------------
 Programming:
   g = (x**2 for x in range(10**9))  # NOT computed immediately.
   next(g)  # computed on demand

 Mathematics:
   Thunk = () → Value — delayed computation
   Instead of value we store function that will compute it

 Infinite sequences:
   def fibonacci():
       a, b = 0, 1
       while True:
           yield a
           a, b = b, a+b

   Mathematically: fib: ℕ → ℕ (function on all naturals)
   But stored as computational process

-------------------------------------------------------------------------------

 None / null
 ----------
 Programming:  x = None
 Mathematics:        Maybe T = T ∪ {Nothing}
                    x: Maybe Int → x = Nothing or x = Just(5)


 Summary correspondence table


 Programming         | Mathematics               | Geometry
 -------------------------+--------------------------+---------------------
 x = 5                    | Var("x") = 5 ∈ ℤ        | Point at coordinate 5
 if P: A else: B          | {A, if P; B, if ¬P} | Branching of trajectory
 for x in S: f(x)         | ∀x∈S: f(x)              | Traversal of set points
 while P: f()             | xₙ₊₁=f(xₙ) while P(xₙ)   | Movement to boundary
 def f(x): return y       | f: X → Y                | Mapping
 [x₁, x₂, x₃]             | (x₁,x₂,x₃) — tuple     | Discrete curve
 {x₁, x₂, x₃}             | {x₁,x₂,x₃} — set  | Set of points
 {'k': v}                 | k ↦ v — partial function | Discrete mapping
 class C                  | (S, F) — algebraic structure | Manifold with operations
 object                   | element S               | Point in space
 map(f, L)                | (f(x₁),...,f(xₙ))       | Pointwise transformation
 filter(P, L)             | {x∈L : P(x)}            | Region selection
 reduce(⊕, L)             | x₁⊕x₂⊕...⊕xₙ           | Composition of operations
 lambda x: e              | λx.e                    | Anonymous function
 [f(x) for x in S if P(x)]| {f(x) : x∈S, P(x)}      | Definition via condition


 Programming paradigms


 SQL (declarative):        Relational algebra (operations over sets)
 Python (imperative):      Step-by-step commands (algorithm)
 Haskell (functional):   Function composition (λ-calculus)
 Prolog (logical):        Inference rules (predicate logic)

-------------------------------------------------------------------------------

 Python libraries ↔ mathematics:

 NumPy array:        Vector/matrix (elements ℝⁿ, ℝⁿˣᵐ)
 Pandas DataFrame:   Relation (table from relational algebra)
 sklearn.Model:      Statistical model (mapping X → Y with parameters)
 NetworkX Graph:     Graph G = (V, E) (set of vertices + edges)


===============================================================================
Dictionary: theory of random processes ↔ time series analysis
===============================================================================

Bridge between rigorous theory (measure theory, stochastic analysis) and practice
(econometrics, data analysis, forecasting).

 Basic objects


 Theory of random processes     | Time series analysis
 -------------------------------+---------------------------------------
 Random process {X(t), t∈T}     | Time series {x₁, x₂, ..., xₙ}
 Mapping T × Ω → ℝ              | Sequence of observations
                                |
 Trajectory (realization)       | Observed series
 X(·, ω) for fixed ω            | Concrete sequence of numbers
                                |
 Probability space (Ω,ℱ,P)      | DGP (Data Generating Process)
                                | Population
                                |
 Filtration {ℱₜ}                | Information set
 σ-algebras of the past         | History of process up to time t
                                |

 Properties of processes


 Theory                         | Practice
 -------------------------------+-------------------------------------------
 Strict stationarity            | (no direct analog)
 F(xₜ₁,...,xₜₙ) = F(xₜ₁₊ₕ,...)  | Too strong requirement
                                |
 Wide-sense stationarity        | (Weak) stationarity
 (weak)                         | Constant mean and variance,
 E[X(t)] = μ = const            | ACF depends only on lag
 Cov(X(t),X(s)) = R(|t−s|)     | μₜ = μ, σₜ² = σ², ρ(τ)
                                |
 Ergodicity                     | Time average = expectation
 lim(T→∞) 1/T ∫X(t)dt = E[X]   | (1/n)Σxᵢ → μ as n → ∞
                                | Can estimate from single realization
                                |

 Characteristics of processes


 Theory                         | Practice
 -------------------------------+-------------------------------------------
 Expectation                    | Mean level / trend
 m(t) = E[X(t)]                 | μ = (1/n)Σxᵢ
 For stationary: m = const      | μ̂ — sample mean
                                |
 Autocovariance function        | ACVF (autocovariance function)
 γ(s,t) = Cov(X(s),X(t))        | γ(k) = Cov(xₜ, xₜ₊ₖ)
 For stationary:                | γ̂(k) = (1/n)Σ(xᵢ−x̄)(xᵢ₊ₖ−x̄)
 γ(τ) = Cov(X(t),X(t+τ))        |
                                |
 Autocorrelation function       | ACF (autocorrelation function)
 ρ(τ) = γ(τ)/γ(0)               | ρ(k) = γ(k)/γ(0)
 Normalized covariance          | ρ̂(k) — sample ACF
                                |
 Partial autocorrelation        | PACF
 φₖₖ from Yule–Walker equations | For determining AR model order
                                |
 Spectral density               | Power spectrum / periodogram
 S(ω) = (1/2π)Σγ(k)e^(−ikω)    | I(ω) = |(1/√n)Σxₜe^(−iωt)|²
 Wiener-Khinchin theorem:       | Connection of ACF and spectrum via FFT
 S(ω) ↔ γ(τ) through Fourier    |
                                |

 Types of processes and models


 Theory                         | Practice
 -------------------------------+-------------------------------------------
 White noise                    | White noise / Innovations
 {ξₜ} ~ WN(0, σ²)               | εₜ ~ iid(0, σ²)
 E[ξₜ] = 0, E[ξₜξₛ] = σ²δₜₛ    | Uncorrelated, E[εₜ] = 0
                                |
 Gaussian process               | Normally distributed series
 All finite-dimensional         | Often assumed for
 distributions Gaussian         | statistical inference
                                |
 Markov process                 | AR(1) process
 P(Xₜ₊₁|Xₜ,Xₜ₋₁,...) = P(Xₜ₊₁|Xₜ)| xₜ = φxₜ₋₁ + εₜ
 Future depends only on         | First-order autoregression
 present                        |
                                |
 Wiener process                 | Random walk
 (Brownian motion)              | in continuous time
 W(t) ~ N(0,t), continuous,     | Limit of Δxₜ = εₜ as Δt → 0
 non-differentiable             | I(1) process
                                |
 Process with independent       | Random walk
 increments                     | xₜ = xₜ₋₁ + εₜ
 X(t)−X(s) ⊥ X(s)−X(r)          | Discrete analog of Wiener
                                |
 Ornstein–Uhlenbeck process     | AR(1) in continuous time
 dXₜ = −θ(Xₜ−μ)dt + σdWₜ        | Mean-reverting process
 Mean reversion                 |
                                |
 Martingale                     | Unpredictable process
 E[Xₜ₊₁|ℱₜ] = Xₜ                | E[εₜ₊₁|past] = 0
 Best prediction = current      | Correctly fitted model
 value                          | yields martingale residuals
                                |
 Long memory process            | ARFIMA / Long memory process
 γ(k) ~ Ck^(−α), α ∈ (0,1)      | Slowly decaying ACF
                                | Fractionally integrated process
                                |

 Time series models


 Stochastic DE                  | Discrete model
 -------------------------------+-------------------------------------------
Linear SDE                    | ARMA(p,q) model
 dXₜ = a·Xₜdt + σdWₜ           | φ(L)xₜ = θ(L)εₜ
                                | φ(L) = 1 − φ₁L − φ₂L² − ⋯ − φₚLᵖ
                                | θ(L) = 1 + θ₁L + θ₂L² + ⋯ + θᵩLᵠ
                                |
 Ornstein–Uhlenbeck process     | AR(1): xₜ = φxₜ₋₁ + εₜ
 dXₜ = −θ(Xₜ−μ)dt + σdWₜ       | where φ = e^(−θΔt)
                                |
 Wiener process                 | Random walk
 W(t) − W(s) ~ N(0, t−s)       | xₜ = xₜ₋₁ + εₜ
                                | Integrated process I(1)
                                |
 Geometric Brownian             | Logarithmic random
 motion                         | walk
 dSₜ = μSₜdt + σSₜdWₜ          | ln(xₜ) = ln(xₜ₋₁) + μ + σεₜ
 S(t) = S(0)exp((μ−σ²/2)t+σW(t))| Asset price model
                                |

 Operators and estimation


 Theory | practice
 -------------------------------+-------------------------------------------
 Shift operator                 | Lag operator
 Uₕf(t) = f(t+h)               | Lxₜ = xₜ₋₁, L²xₜ = xₜ₋₂
 Shift group                    | Lᵏxₜ = xₜ₋ₖ
                                |
 Stochastic integral            | Accumulated sum of shocks
 ∫₀ᵗ f(s)dW(s)                  | Σᵢ₌₁ᵗ εᵢ
 (Itô definition)               |
                                |
 Conditional expectation        | Model forecast
 E[Xₜ₊ₕ|ℱₜ]                     | x̂ₜ₊ₕ|ₜ = E[xₜ₊ₕ|x₁,...,xₜ]
                                |
 Maximum likelihood             | MLE (Maximum Likelihood)
 estimation                     | θ̂ = argmax L(θ|data)
                                |
 Asymptotic normality           | √n(θ̂−θ) →^d N(0,V)
                                | Confidence intervals
                                |

 Key formulas


 AR(1): Xₜ = φXₜ₋₁ + εₜ
   • Stationarity: |φ| < 1
   • Variance: Var[Xₜ] = σ²/(1−φ²)
   • ACF: ρ(k) = φᵏ
   • Spectral density: S(ω) = σ²/|1−φe^(−iω)|²

 AR(p): Xₜ = φ₁Xₜ₋₁ + ... + φₚXₜ₋ₚ + εₜ
   • Stationarity: roots of φ(z) = 0 outside unit circle
   • Yule–Walker equations: γ(k) = φ₁γ(k−1) + ... + φₚγ(k−p)
   • PACF: φₖₖ ≠ 0 for k≤p, φₖₖ = 0 for k>p

 MA(q): Xₜ = εₜ + θ₁εₜ₋₁ + ... + θᵩεₜ₋ᵩ
   • Invertibility: roots of θ(z) = 0 outside unit circle
   • ACF: ρ(k) = 0 for k > q (cuts off)

 ARIMA(p,d,q): φ(L)∇ᵈXₜ = θ(L)εₜ
   • d times differencing for stationarity
   • ∇xₜ = xₜ − xₜ₋₁ (difference operator)

 Kalman filter:
   State:   xₜ = Axₜ₋₁ + wₜ,  wₜ ~ N(0,Q)
   Observ:  yₜ = Cxₜ + vₜ,    vₜ ~ N(0,R)
   Predict: x̂ₜ|ₜ₋₁ = Ax̂ₜ₋₁|ₜ₋₁
   Update:  Kₜ = Pₜ|ₜ₋₁Cᵀ(CPₜ|ₜ₋₁Cᵀ + R)⁻¹  (Kalman gain)
            x̂ₜ|ₜ = x̂ₜ|ₜ₋₁ + Kₜ(yₜ − Cx̂ₜ|ₜ₋₁)


 Key differences in approaches


 Stochastic process theory:
   • Questions: existence, uniqueness, structure
   • Language: measure theory, functional analysis, topology
   • Goal: prove general theorems
   • Audience: mathematicians
   • Emphasis: rigor, generality, abstraction

 Time series analysis:
   • Questions: identification, estimation, forecasting
   • Language: statistics, regression analysis
   • Goal: obtain numerical forecast
   • Audience: statisticians, econometricians, engineers
   • Emphasis: practicality, applicability, computation

-------------------------------------------------------------------------------

 Connection:
   Time series analysis = discretization + estimation + diagnostics
                          of stochastic process theory

   Process theory explains Why time series methods work.
   Time series shows how to apply these methods in practice.


-------------------------------------------------------------------------------
Dictionary: continuous → discrete (How mathematics gets into the computer)
-------------------------------------------------------------------------------

 Why this section


 Mathematics operates with continuous objects: ℝ, integrals, derivatives.
 Computer works with discrete objects: arrays, sums, differences.

 Engineer must understand how one transforms into the other — and what is lost.


 Main table: analog → digital
+--------------------+-----------------------------+-------------------------+
| CONTINUOUS         | DISCRETE                    | WHAT IS LOST            |
+--------------------+-----------------------------+-------------------------+
| Function f(x)      | Array f[i]                  | Values between nodes    |
| x ∈ [a,b]          | i = 0,1,...,N               | (need interpolation)    |
+--------------------+-----------------------------+-------------------------+
| Derivative df/dx   | Difference (f[i+1]−f[i])/h  | Accuracy O(h)           |
|                    | or (f[i+1]−f[i-1])/2h       | Accuracy O(h²)          |
+--------------------+-----------------------------+-------------------------+
| Second derivative  | (f[i+1]−2f[i]+f[i-1])/h²    | Accuracy O(h²)          |
| d²f/dx²            |                             |                         |
+--------------------+-----------------------------+-------------------------+
| Integral ∫f(x)dx   | Sum Σf[i]·h                 | Rectangles: O(h)        |
|                    | Trapezoids: Σ(f[i]+f[i+1])h/2| Trapezoids: O(h²)       |
|                    | Simpson                     | Simpson: O(h⁴)          |
+--------------------+-----------------------------+-------------------------+
| ℝ (real numbers)   | float64                     | Precision ~15 digits    |
|                    |                             | Overflow, underflow     |
+--------------------+-----------------------------+-------------------------+
| Operator L: V→V    | Matrix A: ℝⁿ→ℝⁿ             | Finite dimension        |
| (infinite-dim)     |                             |                         |
+--------------------+-----------------------------+-------------------------+

 Kotelnikov-Shannon-Nyquist theorem — When nothing is lost


 Fundamental result: a continuous signal can be exactly reconstructed
 from discrete samples — but only under certain conditions.

 Theorem:
   If signal f(t) contains no frequencies above F_max (band-limited),
   then it is completely determined by samples with frequency ≥ 2·F_max.

   f(t) = Σ f(n·T) · sinc((t − n·T)/T),   where T ≤ 1/(2·F_max)

   sinc(x) = sin(πx)/(πx) — sampling function (cardinal sine)

 Corollaries:
   • Nyquist frequency: F_Nyquist = 2·F_max — minimum sampling frequency
   • Aliasing: if sampling is rarer than F_Nyquist, high frequencies "pretend"
     to be low (stroboscopic effect — wheel spins "backward" in movies)
   • Anti-aliasing filter needed before discretization

 Practice:
   • CD Audio: F_max = 20 kHz → sampling 44.1 kHz > 40 kHz ✓
   • When calculating structures: mesh step h < λ_min/2 (wavelength)

 This is the bridge between continuous and discrete — theoretical justification that
 digital signal processing is even possible without information loss.


 Derivative → matrix


 Operator d/dx on functions f(x) — infinite-dimensional.
 But if f(x) is given at N points: f[0], f[1], ..., f[N-1], then:

 First derivative (central difference):

   (df/dx)[i] ≈ (f[i+1] − f[i-1]) / (2h)

   Matrix D₁:
   +                             +
   |  0   1   0   0   0   ⋯  0 |
   | -1   0   1   0   0   ⋯  0 |   1
   |  0  -1   0   1   0   ⋯  0 |  ─── ·
   |  0   0  -1   0   1   ⋯  0 |  2h
   |  ⋮   ⋮   ⋮   ⋮   ⋱   ⋮  |
   |  0   0   0   ⋯  -1   0  1 |
   |  0   0   0   ⋯   0  -1  0 |
   +                             +

 Second derivative (heat equation):

   (d²f/dx²)[i] ≈ (f[i+1] − 2f[i] + f[i-1]) / h²

   Matrix D₂:
   +                             +
   | -2   1   0   0   0   ⋯  0 |
   |  1  -2   1   0   0   ⋯  0 |   1
   |  0   1  -2   1   0   ⋯  0 |  ─── ·
   |  0   0   1  -2   1   ⋯  0 |  h²
   |  ⋮   ⋮   ⋮   ⋮   ⋱   ⋮  |
   |  0   0   0   ⋯   1  -2  1 |
   |  0   0   0   ⋯   0   1 -2 |
   +                             +

 This is the same matrix as in the example (thermal balance of rooms)!
 Heat conduction → matrix → eigenvalues → solution.


 Graph Laplacian = discrete Laplace operator


 On continuous space: Δf = d²f/dx² + d²f/dy² + d²f/dz²

 On a graph (e.g., heat network):

   (Lf)[i] = Σⱼ wᵢⱼ (f[i] − f[j])

   where wᵢⱼ — edge weight between nodes i and j (pipe thermal conductivity)

 Laplacian matrix:

   L = D − W

   D = diag(d₁, d₂, ..., dₙ) — vertex degrees (dᵢ = Σⱼwᵢⱼ)
   W = weight matrix (wᵢⱼ)

 Eigenvalues of Laplacian:

   • λ₁ = 0 always (for connected graph — unique zero)
   • λ₂ > 0 ⟺ graph is connected
   • The larger λ₂, the "better connected" the graph

 Application: Spectral clustering, network analysis, PageRank


 Finite element method (fem) — briefly


 Problem: Solve heat equation on complex domain Ω

   −∇·(k∇T) = q    (in domain Ω)
   T = T₀          (on boundary ∂Ω)

 Step 1: Partition domain into elements (triangles, tetrahedra)

         ●-------●-------●
        /╲      /╲      /╲
       /  ╲    /  ╲    /  ╲
      /    ╲  /    ╲  /    ╲
     ●------●------●------●
      ╲    /╲    /╲    /
       ╲  /  ╲  /  ╲  /
        ╲/    ╲/    ╲/
         ●-------●-------●

 Step 2: Inside each element T(x,y) ≈ linear function

 Step 3: Write variational form:

   Minimize: ∫_Ω [½k|∇T|² − qT] dA

 Step 4: Obtain system of linear equations:

   K·T = F

   K — stiffness matrix (depends on geometry and k)
   F — load vector (depends on q and boundary conditions)
   T — vector of temperatures at nodes

 Result: Differential equation → Matrix equation
         Infinite-dimensional problem → Finite-dimensional linear algebra


 Pitfalls of discretization


 Problem 1: Loss of precision in float
 -----------------------------------
In ℝ: (a + b) + c = a + (b + c)  — associativity
   In float: may be false.

   Example: a = 1.0, b = 1e-16, c = 1e-16
     (a + b) + c = 1.0 + 1e-16 = 1.0  (b is lost)
     a + (b + c) = 1.0 + 2e-16 ≈ 1.0  (but slightly larger)

 Problem 2: Instability of schemes
 -------------------------------
   Explicit scheme for heat conduction:
     T[i,n+1] = T[i,n] + (aΔt/h²)(T[i+1,n] − 2T[i,n] + T[i-1,n])

   Stable only when: aΔt/h² ≤ 0.5 (Courant condition)
   Otherwise — oscillations and solution blow-up.

 Problem 3: Poor conditioning of matrix
 -------------------------------------------
   cond(A) = ‖A‖·‖A⁻¹‖ — condition number
   If cond(A) ≫ 1, small errors in data → large errors in solution

   When decreasing h: cond(D₂) ~ 1/h² → bad.


 Z-transform — Laplace for discrete systems


 Definition:
   X(z) = Z[xₙ] = Σₙ₌₀^∞ xₙ z⁻ⁿ

 Connection with Laplace:
   • Laplace: L[x(t)] = ∫₀^∞ x(t) e⁻ˢᵗ dt    (continuous time)
   • Z:      Z[xₙ] = Σ xₙ z⁻ⁿ               (discrete time)

   With discretization step T:  z = eˢᵀ

 Key properties:
 +---------------------+--------------------------------+
 | Time                | Z-domain                       |
 +---------------------+--------------------------------+
 | Delay: xₙ₋₁         | z⁻¹ X(z)                       |
 | Difference: xₙ − xₙ₋₁| (1 − z⁻¹) X(z)                 |
 | Convolution: (x*y)ₙ | X(z)·Y(z)                      |
 | Initial value       | lim_{z→∞} X(z) = x₀            |
 | Final value         | lim_{z→1} (1−z⁻¹)X(z) = lim xₙ |
 +---------------------+--------------------------------+

 Application in DSP (digital signal processing):
   • Digital filter: Y(z) = H(z)·X(z)
   • Transfer function: H(z) = (b₀ + b₁z⁻¹ + ...)/(1 + a₁z⁻¹ + ...)
   • Stability: all poles of H(z) inside unit circle |z| < 1

 Analogy with Laplace:
 +------------------------+-----------------------+------------------------+
 | CONCEPT                | s-domain (Laplace)    | z-domain               |
 +------------------------+-----------------------+------------------------+
 | Stability              | Re(s) < 0             | |z| < 1                |
 | Stability boundary     | imaginary axis        | unit circle            |
 | Frequency response     | s = iω                | z = e^{iωT}            |
 +------------------------+-----------------------+------------------------+


 Summary: connection of sections


   +----------------------+      discretization     +-----------------------+
   | Calculus             |  ---------------------► | Linear algebra        |
   | (derivatives, intgr.)|                         | (matrices, systems)   |
   +----------------------+                         +-----------------------+

   +----------------------+      discretization     +-----------------------+
   | Manifolds            |  ---------------------► | Graphs                |
   | (smooth surfaces)    |        (FEM)            | (meshes, nodes, edges)|
   +----------------------+                         +-----------------------+

   +----------------------+      discretization     +-----------------------+
   | Func. analysis       |  ---------------------► | Numerical linear      |
   | (operators)          |                         | algebra               |
   +----------------------+                         +-----------------------+

 Continuous mathematics gives understanding (why it works).
 Discrete mathematics gives computation (how to calculate).


===============================================================================
Dictionary: engineering jargon ↔ mathematical terminology
===============================================================================

 Introduction


 Engineers and mathematicians often talk about the same thing in different words.
 This dictionary helps to "translate" between languages.


 Control theory and signals
+---------------------------+---------------------------------------------------+
| ENGINEERING TERM          | MATHEMATICAL EQUIVALENT                           |
+---------------------------+---------------------------------------------------+
| Signal x(t)               | Function x ∈ L²(ℝ) or distribution                |
+---------------------------+---------------------------------------------------+
| System, "black box"       | Operator T: X → Y between functional spaces       |
+---------------------------+---------------------------------------------------+
| Linear system             | Linear operator T(ax+by) = aT(x)+bT(y)            |
+---------------------------+---------------------------------------------------+
| Stationary (LTI)          | Shift-invariant: T∘τ_s = τ_s∘T                    |
| system                    | where τ_s — shift operator by s                   |
+---------------------------+---------------------------------------------------+
| Impulse response h(t)     | Convolution kernel: y = h * x, i.e. y(t)=∫h(τ)x(t-τ)dτ|
+---------------------------+---------------------------------------------------+
| Transfer function H(s)    | Symbol of operator / Laplace transform of kernel  |
|                           | H(s) = ℒ{h}(s), relation: Y(s) = H(s)X(s)         |
+---------------------------+---------------------------------------------------+
| Frequency response H(iω)  | Fourier transform: H(iω) = ℱ{h}(ω)                |
+---------------------------+---------------------------------------------------+
| Poles of transfer         | Eigenvalues of operator                           |
| function                  | (roots of characteristic polynomial)              |
+---------------------------+---------------------------------------------------+
| Stable system             | Spectrum of operator in left half-plane Re(s)<0 |
| (BIBO-stability)          | or: all eigenvalues with Re(λ)<0                |
+---------------------------+---------------------------------------------------+
| Resonance                 | Forcing frequency close to imaginary part         |
|                           | of eigenvalue (pole)                              |
+---------------------------+---------------------------------------------------+
| Feedback                  | Modification of operator: T_fb = T/(1 + KT)       |
|                           | Change of eigenvalues.                            |
+---------------------------+---------------------------------------------------+
| Controllability           | Reachability of any point in state space          |
|                           | rank[B, AB, A²B, ...] = n (Kalman criterion)      |
+---------------------------+---------------------------------------------------+
| Observability             | Recoverability of state from output               |
|                           | rank[C; CA; CA²; ⋯] = n                           |
+---------------------------+---------------------------------------------------+

 Mechanics and thermal engineering
+--------------------------+--------------------------------------------------+
| ENGINEERING TERM         | MATHEMATICAL EQUIVALENT                          |
+--------------------------+--------------------------------------------------+
| Distributed system       | PDE (partial differential equation)              |
| (heat conduction, waves) | Solution — function u(x,t) of several variables  |
+--------------------------+--------------------------------------------------+
| Lumped parameters        | ODE (ordinary differential equation)             |
| (point masses, capacities)| Solution — vector function x(t)                  |
+--------------------------+--------------------------------------------------+
| Boundary conditions      | Values of function (or derivatives) on ∂Ω        |
|                          | Trace u|_{∂Ω} — element of Sobolev space         |
+--------------------------+--------------------------------------------------+
| Natural frequency ωₙ     | √λₙ, where λₙ — eigenvalue of operator           |
|                          | (Laplacian with boundary conditions)             |
+--------------------------+--------------------------------------------------+
| Mode of vibration φₙ(x)  | Eigenfunction: −∇²φₙ = λₙφₙ                      |
+--------------------------+--------------------------------------------------+
| Mode expansion           | Expansion in orthogonal basis of eigenfunctions  |
|                          | u(x,t) = Σ cₙ(t)φₙ(x)                            |
+--------------------------+--------------------------------------------------+
| Damping                  | Dissipative term in operator                     |
|                          | Shifts eigenvalues left (Re↓)                    |
+--------------------------+--------------------------------------------------+
| Stress tensor σᵢⱼ        | Symmetric tensor of rank 2                       |
|                          | σ: TₚM ⊗ TₚM → ℝ (bilinear form)                 |
+--------------------------+--------------------------------------------------+
| Temperature gradient     | 1-form dT ∈ Ω¹(M), or vector ∇T = g⁻¹(dT)       |
+--------------------------+--------------------------------------------------+
| Heat flux q              | Vector or 2-form (integrated over surface)       |
|                          | q = −k∇T (Fourier's law = k relates them)        |
+--------------------------+--------------------------------------------------+

 Statistics and machine learning
+--------------------------+------------------------------------------------+
| ENGINEERING TERM         | MATHEMATICAL EQUIVALENT                        |
+--------------------------+------------------------------------------------+
| Data (sample)            | Empirical measure: μ_n = (1/n)Σδ_{xᵢ}         |
+--------------------------+------------------------------------------------+
| Features                 | Coordinates in feature space ℝᵖ                |
+--------------------------+------------------------------------------------+
| Principal components(PCA)| Eigenvectors of covariance matrix              |
|                          | = directions of maximal variance               |
+--------------------------+------------------------------------------------+
| Clustering               | Partition of space by metric                   |
|                          | (Voronoi, k-means, ...)                        |
+--------------------------+------------------------------------------------+
| Kernel methods           | Reproducing kernel Hilbert space               |
|                          | K(x,y) = ⟨φ(x), φ(y)⟩ for embedding φ: X → H   |
+--------------------------+------------------------------------------------+
| Regularization           | Constraint on norm of solution                 |
| (L1, L2, ...)            | min ‖Ax-b‖² + λ‖x‖ₚ — problem in Banach space  |
+--------------------------+------------------------------------------------+
| Overfitting              | Approximation of noise rather than signal      |
|                          | Violation of bias-variance tradeoff            |
+--------------------------+------------------------------------------------+
| Gradient descent         | Iterative method: xₖ₊₁ = xₖ − α∇f(xₖ)          |
|                          | Convergence: convexity + Lipschitz condition   |
+--------------------------+------------------------------------------------+

===============================================================================
How to Use the Tables When Solving Problems
===============================================================================

Step-by-step algorithm:

Step 1: determine the level (Main table)
        ↓
       At what level of abstraction is the problem?

Step 2: determine the type of structure (pillars in the main table)
        ↓
       Discrete? Algebraic? Topological? Analytic?

Step 3: identify relations
        ↓
       What relations are given? ∈, ⊆, ~, ≤, →?

Step 4: search for analogy (Analogy table)
        ↓
       Have we seen a similar pattern in another area?

Step 5: choose proof method
        ↓
       Direct? By contradiction? Induction? Contraposition?

Step 6: construct path (Philosophy)
        ↓
       Proof = path of set inclusions

Step 7: Check
        ↓
       Are all inclusions correct?

Concrete example:

Problem: Prove that the sum of two even numbers is even

Step 1: Level — Numbers (ℤ), Level 4
Step 2: Type — Algebraic (operation +) + Discrete (divisibility)
Step 3: Relations — "Even" = {n ∈ ℤ : ∃k, n = 2k}
Step 4: Analogy — Closure of subgroup.
Step 5: Method — Direct proof
Step 6: Path:
        1. a = 2k, b = 2m
        2. a + b = 2k + 2m = 2(k+m)
        3. ⇒ a + b even ✓
Step 7: Check — ✓ all steps correct

-------------------------------------------------------------------------------

Second example: More complex problem

Problem: Prove that the set of irrational numbers is uncountable

Step 1: determine the level
         • Sets + cardinality → Level 2 (set theory)
         • But use facts about ℝ and ℚ → Level 4 (numbers)

Step 2: determine the type
         • Discrete (cardinalities of sets)
         • Working with "sizes" of infinite sets

Step 3: identify relations
         Given:
           • ℝ uncountable (Cantor's theorem)
           • ℚ countable (known fact)
           • Irrationals = ℝ \ ℚ

         Required:
           • |ℝ \ ℚ| uncountable

Step 4: search for analogy
         Recall arithmetic of cardinalities:
           • If A finite, B finite ⇒ A ∪ B finite
           • Analogy for infinite: countable + countable = countable
           • But: uncountable ≠ countable + countable

Step 5: choose method
         • By contradiction (reductio ad absurdum)
         • Assume that irrationals are countable → contradiction

Step 6: construct path (proof)
         1. Assume that ℝ \ ℚ countable               [by contradiction]

         2. ℚ countable (known)                         [fact]

         3. ℝ = ℚ ∪ (ℝ \ ℚ)                             [partition]

         4. Countable ∪ Countable = Countable           [theorem]

         5. ⇒ ℝ countable                                  [from 1,2,3,4]

         6. But ℝ uncountable (Cantor's diagonal method)  [contradiction]

         7. ⇒ Assumption false                     [reductio]

         8. ⇒ ℝ \ ℚ uncountable                            ✓

         Geometry (sets):
           If ℝ\ℚ were countable:

           ℝ = ℚ ∪ (ℝ\ℚ)
               ↓     ↓
            countable + countable = countable  (should be)

           But ℝ uncountable. → contradiction

         Philosophy:
           We tried to represent ℝ as union of two countable sets.
           Got absurdity: ℝ simultaneously countable and uncountable.
           Therefore, one of the sets is uncountable. Since ℚ countable, then ℝ\ℚ uncountable.

Step 7: Check
         ✓ Used facts are true (ℚ countable, ℝ uncountable)
         ✓ Theorem about countable union is true
         ✓ Logic by contradiction applied correctly
         ✓ Contradiction is real (not imaginary)

===============================================================================
Typical problems — from formulation to method
===============================================================================

+------------------+----------------------+------------------------------+
| FORMULATION      | TYPE OF PROBLEM      | METHOD                       |
+------------------+----------------------+------------------------------+
| "Prove x ∈ A"    | Membership           | Direct: show definition      |
| "Prove A ⊆ B"    | Inclusion            | Take arbitrary x ∈ A         |
| "Prove A = B"    | Equality of sets     | Show A ⊆ B and B ⊆ A         |
| "Does not exist" | Nonexistence         | By contradiction             |
| "For all n ∈ ℕ"  | For all natural      | Induction                    |
| "P ⇒ Q"          | Implication          | Direct or contraposition     |
| "P ⇔ Q"          | Equivalence          | Two implications             |
| "There exists    | Existence +          | Construction + uniqueness    |
| unique"          | uniqueness           | separately                   |
+------------------+----------------------+------------------------------+

===============================================================================
Historical atlas — how mathematics grew by levels
===============================================================================

+-----------+----------------------------------------------------------------+
| PERIOD    | WHAT APPEARED (by levels of main table)                        |
+-----------+----------------------------------------------------------------+
| ~3000 BC  | LEVEL 2-3: ℕ, ℤ, ℚ, Euclidean geometry, Aristotelian logic     |
| - 300 BC  |                                                                |
|           | • Euclid "Elements" — first axiomatic system                   |
|           | • Aristotle — formalization of logic                           |
+-----------+----------------------------------------------------------------+
| 1500-1700 | LEVEL 4: ℂ, calculus                                          |
|           |                                                                |
|           | • Complex numbers ℂ (Cardano, ~1545)                           |
|           | • Calculus (Newton, Leibniz, ~1670-1680)                       |
+-----------+----------------------------------------------------------------+
| 1800-1850 | LEVEL 4-5: Groups, rigor in analysis                           |
|           |                                                                |
|           | • Grassmann — vector spaces (~1844)                            |
|           | • Galois — group theory (~1830)                                |
|           | • Weierstrass — ε-δ definitions (~1850)                        |
+-----------+----------------------------------------------------------------+
| 1850-1900 | LEVEL 2, 5: Sets, topology                                     |
|           |                                                                |
|           | • Cantor — set theory (~1870-1880) [foundation]                |
+-----------+----------------------------------------------------------------+
| 1900-1930 | LEVEL 5-6: Topology, functional analysis                       |
|           |                                                                |
|           | • Lebesgue — measure theory (~1902)                            |
|           | • Fréchet — metric spaces (~1906)                              |
|           | • Hausdorff — general topology (~1914)                         |
|           | • Banach — functional analysis (~1920-1930)                    |
|           | • Gödel — incompleteness theorems (~1931)                      |
+-----------+----------------------------------------------------------------+
| 1930-1960 | LEVEL 6: Categories, algebraic topology                        |
|           |                                                                |
|           | • Eilenberg, Mac Lane — category theory (~1945) [meta-level]   |
|           | • Bourbaki — structuralist approach (~1935)                    |
|           | • Kolmogorov — axiomatic probability theory (~1933)            |
+-----------+----------------------------------------------------------------+

Key observation:

  History of mathematics goes bottom-up through the main table.
  Each era builds on previous levels.

===============================================================================
                          Typical Misconceptions
===============================================================================

Almost everyone makes these mistakes. Better to learn about them in advance.

 Misconceptions in Logic
+--------------------------------+--------------------------------------------+
| ERROR                          | TRUTH                                      |
+--------------------------------+--------------------------------------------+
| "From false follows only       | From false follows ANYTHING.               |
| false"                         | F → P is true for any P                    |
+--------------------------------+--------------------------------------------+
| "∀ and ∃ can be swapped"       | ∀x∃y P(x,y) ≢ ∃y∀x P(x,y)                  |
|                                | "Everyone has their own mom" ≠ "One mom for all" |
+--------------------------------+--------------------------------------------+
| "To prove = to check examples" | Examples never prove ∀-statements.         |
|                                | But one counterexample refutes             |
+--------------------------------+--------------------------------------------+

 Misconceptions in Algebra
+---------------------------+--------------------------------------------+
| ERROR                     | TRUTH                                      |
+---------------------------+--------------------------------------------+
| "A group is numbers with  | A group is a set of SYMMETRIES of an object.|
| an operation"             | Numbers are just one special case          |
+---------------------------+--------------------------------------------+
| "In a group always ab = ba"| Only in ABELIAN groups.                    |
|                           | Rotations + reflections: NOT commutative   |
+---------------------------+--------------------------------------------+
| "(ab)⁻¹ = a⁻¹b⁻¹"         | (ab)⁻¹ = b⁻¹a⁻¹ — order is REVERSED.       |
|                           | (put on socks, shoes)⁻¹ = take off shoes,  |
|                           | take off socks                             |
+---------------------------+--------------------------------------------+

 Misconceptions in Topology
+-------------------------------+-------------------------------------------+
| ERROR                         | TRUTH                                     |
+-------------------------------+-------------------------------------------+
| "Open = without boundary"     | Open = "inside each point there is a ball"|
|                               | ℝ is open in ℝ, although "there is no boundary" |
+-------------------------------+-------------------------------------------+
| "A set is either open         | Can be both (∅, X)                        |
| or closed"                    | Can be NEITHER: [0,1) in ℝ                |
+-------------------------------+-------------------------------------------+
| "A continuous function cannot | x ↦ 1/x is continuous on (0,∞) and → ∞    |
| go to infinity"               | Continuity ≠ boundedness                  |
+-------------------------------+-------------------------------------------+
| "Donut and cup — it's a joke" | This is an EXACT theorem: both have genus 1|
|                               | (one hole), therefore homeomorphic        |
+-------------------------------+-------------------------------------------+

 Misconceptions in Linear Algebra
+-------------------------------+-------------------------------------------+
| ERROR                         | TRUTH                                     |
+-------------------------------+-------------------------------------------+
| "A vector is an arrow"        | A vector is an element of a vector space. |
|                               | Functions, matrices, series — also vectors.|
+-------------------------------+-------------------------------------------+
| "A matrix is a table of numbers"| A matrix is a REPRESENTATION of a linear |
|                               | operator in a specific basis.             |
|                               | Change basis — matrix changes             |
+-------------------------------+-------------------------------------------+
| "det(A+B) = det(A) + det(B)"  | FALSE. det is multiplicative:             |
|                               | det(AB) = det(A)·det(B)                   |
+-------------------------------+-------------------------------------------+
| "If det A = 0, the matrix     | The matrix exists, but it is NONINVERTIBLE.|
| doesn't exist"                | Some vectors "collapse" into the kernel   |
+-------------------------------+-------------------------------------------+

 Misconceptions in Differential Geometry
+------------------------------+-------------------------------------------+
| ERROR                        | TRUTH                                     |
+------------------------------+-------------------------------------------+
| "dx is an infinitesimal      | dx is a basis element of the cotangent    |
| quantity"                    | space T*M. A linear function.             |
+------------------------------+-------------------------------------------+
| "∫ is just an antiderivative"| ∫ₘω is an independent concept (integral of|
|                              | a form over a manifold). Connection via Stokes.|
+------------------------------+-------------------------------------------+
| "Curvature is bendedness"    | Intrinsic curvature is defined through    |
|                              | parallel transport of a vector along a contour.|
|                              | Cylinder: K=0 (flat). Sphere: K>0.        |
+------------------------------+-------------------------------------------+
| "Connection is abstract      | Connection defines what "parallel" means  |
| nonsense"                    | in curved space.                          |
|                              | Without it one cannot compare vectors at  |
|                              | different points.                         |
+------------------------------+-------------------------------------------+

 Misconceptions in Mathematical Analysis
+------------------------------+--------------------------------------------+
| ERROR                        | TRUTH                                      |
+------------------------------+--------------------------------------------+
| "Derivative is velocity"     | Derivative is LINEAR APPROXIMATION.        |
|                              | Velocity is just one physical example.     |
|                              | f(x+h) ≈ f(x) + f'(x)·h — that's the essence.|
+------------------------------+--------------------------------------------+
| "Integral is area"           | Area is a special case.                    |
|                              | Integral is a measure: generalized         |
|                              | "size" of a set or a functional on C(X).   |
+------------------------------+--------------------------------------------+
| "∞ is a number"              | ∞ is a SYMBOL for writing limits.          |
|                              | Cannot: ∞ − ∞, ∞/∞, 0·∞ — undefined.        |
+------------------------------+--------------------------------------------+
| "1/0 = ∞"                    | 1/0 is NOT DEFINED in ℝ.                   |
|                              | lim(1/x) = ∞ as x→0⁺ — this is behavior,   |
|                              | not value at a point.                      |
+------------------------------+--------------------------------------------+
| "A convergent series can be  | Only ABSOLUTELY convergent.                |
| rearranged"                  | Conditionally convergent → Riemann's theorem:|
|                              | by rearrangement get any sum.              |
+------------------------------+--------------------------------------------+

 Misconceptions about Tensors
+--------------------------------+--------------------------------------------+
| ERROR                          | TRUTH                                      |
+--------------------------------+--------------------------------------------+
| "A tensor is a multidimensional| A tensor is a MULTILINEAR FUNCTION.        |
| array of numbers"              | Array is just a representation in a basis. |
|                                | Tensor exists independently of coordinates.|
+--------------------------------+--------------------------------------------+
| "A matrix is a rank-2          | A matrix is a representation of operator V → W.|
| tensor"                        | A tensor of type (1,1) is V* ⊗ V.          |
|                                | Matrix changes under change of basis,      |
|                                | tensor — doesn't.                          |
+--------------------------------+--------------------------------------------+
| "Upper/lower indices are just  | These are different objects: vector (↑) vs |
| notation"                      | covector (↓). Related through metric.      |
|                                | vⁱ = gⁱʲvⱼ — raising index requires g.     |
+--------------------------------+--------------------------------------------+

 Misconceptions about Probability
+--------------------------------+--------------------------------------------+
| ERROR                          | TRUTH                                      |
+--------------------------------+--------------------------------------------+
| "Probability is frequency"     | Frequency is one INTERPRETATION. Mathematically|
|                                | probability is a measure with property P(Ω)=1.|
|                                | Bayesian probability is degree of confidence.|
+--------------------------------+--------------------------------------------+
| "P(A|B) = P(B|A)"              | FALSE. P(disease|test⁺) ≠ P(test⁺|disease)|
|                                | Even doctors confuse this. Use Bayes.      |
+--------------------------------+--------------------------------------------+
| "Independent events cannot     | Independence: P(A∩B) = P(A)·P(B).          |
| occur together"                | They can occur together. Just knowledge    |
|                                | of one doesn't change probability of other.|
+--------------------------------+--------------------------------------------+
| "After 10 heads chance of tails| GAMBLER'S FALLACY. Coin doesn't remember past.|
| is higher"                     | P(tails) = 0.5 on each toss.               |
+--------------------------------+--------------------------------------------+

 Misconceptions about Measures and Integrals
+------------------------------+-------------------------------------------+
| ERROR                        | TRUTH                                     |
+------------------------------+-------------------------------------------+
| "Any set has a measure"      | There exist NON-MEASURABLE sets.          |
|                              | (Vitali example, consequence of axiom of choice)|
+------------------------------+-------------------------------------------+
| "Riemann integral is the     | Lebesgue: integrate over function values. |
| only integral"               | Riemann doesn't integrate characteristic  |
|                              | function of ℚ, Lebesgue — integrates (= 0).|
+------------------------------+-------------------------------------------+
| "A set of measure zero is    | Cantor set: uncountable, but μ = 0!       |
| finite or countable"         | Measure and cardinality are different concepts.|
+------------------------------+-------------------------------------------+

 Main Misconception


   "Branches of mathematics are different subjects"

   Truth:
   It's one subject, viewed from different sides.
   A group is a category with one object.
   Topology is a category of open sets.
   A vector space is a module over a field.
   A differential form is a section of a bundle.

   When you understand the deep structure, boundaries between branches disappear.


 Why X is not Y — Negative Examples


 Understanding what an object is NOT is no less important than knowing what
 it is. Here are key distinctions:


 Algebraic Structures
+--------------------------------+--------------------------------------------+
| STATEMENT                      | REASON                                     |
+--------------------------------+--------------------------------------------+
| ℤ is a ring, but NOT a field   | No division: 1/2 ∉ ℤ                       |
+--------------------------------+--------------------------------------------+
| ℤ/6ℤ is a ring, but NOT        | Has zero divisors: 2·3 = 0 (mod 6)        |
| an integral domain             |                                            |
+--------------------------------+--------------------------------------------+
| (ℝ>0, ×) is a group, but       | No neutral element for + (0 ∉ ℝ>0)         |
| (ℝ>0, +) is NOT a group        |                                            |
+--------------------------------+--------------------------------------------+
| Quaternions ℍ are a division   | ab ≠ ba (non-commutativity of multiplication)|
| algebra, but NOT a field       |                                            |
+--------------------------------+--------------------------------------------+
| SPACES and NORMS                                                            |
+--------------------------------+--------------------------------------------+
| L¹[0,1] is Banach, but NOT     | Norm ‖f‖₁ = ∫|f| is not generated by      |
| Hilbert                        | inner product (parallelogram law violated)|
+--------------------------------+--------------------------------------------+
| C[0,1] with ‖·‖∞ is normed,    | There is a Cauchy sequence without limit  |
| but NOT complete under ‖·‖₁    | in C[0,1]: limit is a discontinuous function|
+--------------------------------+--------------------------------------------+
| Metric d(x,y) = |x−y|/(1+|x−y|)| d(x,y) ≤ 1, but original ℝ is unbounded   |
| is not generated by a norm     | No linear structure at the level of metric|
+--------------------------------+--------------------------------------------+
| TOPOLOGICAL PROPERTIES                                                      |
+--------------------------------+--------------------------------------------+
| ℚ is NOT connected             | ℚ = (−∞,√2)∩ℚ ∪ (√2,∞)∩ℚ — two open sets |
+--------------------------------+--------------------------------------------+
| [0,1) is NOT compact           | Cover (1/n, 1) has no finite              |
| (unlike [0,1])                 | subcover                                  |
+--------------------------------+--------------------------------------------+
| Cylinder is NOT homeomorphic   | π₁(cylinder) = ℤ ≠ 0 = π₁(plane)          |
| to plane                       | (although both are locally Euclidean)     |
+--------------------------------+--------------------------------------------+
| FUNCTIONAL ANALYSIS                                                         |
+--------------------------------+--------------------------------------------+
| Weak convergence does NOT      | eₙ → 0 weakly in L², but ‖eₙ‖ = 1        |
| imply norm convergence         | (orthonormal basis)                       |
+--------------------------------+--------------------------------------------+
| Compactness in ∞-dimensional   | Closed unit ball in L² is                 |
| is NOT equivalent to closed +  | closed and bounded, but NOT compact.      |
| bounded                        |                                            |
+--------------------------------+--------------------------------------------+
| A continuous linear operator   | Shift in ℓ²: T(x₁,x₂,...) = (0,x₁,x₂,...)|
| does NOT necessarily have      | Injective, but Tx = λx ⇒ x = 0            |
| eigenvalues                    |                                            |
+--------------------------------+--------------------------------------------+

===============================================================================
# Notation Reference
===============================================================================

All symbols used in this standard:

Note: some symbols appear in different sections with different meanings —
context always disambiguates which meaning is intended:
  • ≅  — isomorphism (in algebra) / homeomorphism (in topology)
  • ∧  — exterior product (in algebra) / conjunction (in logic)
  • →  — implication (in logic) / mapping (in set theory)
  • ∂  — boundary of a set (in topology) / partial derivative (in analysis)
  • ⊥  — orthogonality (in lin. algebra) / perpendicularity (in geometry)

 Logical symbols
+--------+---------------------+-----------------------------------------+
| SYMBOL | NAME                | MEANING                                 |
+--------+---------------------+-----------------------------------------+
| ∀      | Universal quantifier| "for all", "for any"                    |
| ∃      | Existential quant.  | "there exists", "there is at least one" |
| ∃!     | Uniqueness          | "there exists a unique"                 |
| ¬      | Negation            | "not", "it is false that"               |
| ∧      | Conjunction         | "and", "simultaneously"                 |
| ∨      | Disjunction         | "or" (inclusive)                        |
| →      | Implication         | "if…, then…", "implies"                 |
| ↔      | Equivalence         | "if and only if", "equivalent"          |
| ⊢      | Derivability        | "right follows from left"               |
| ⊨      | Semantic conseq.    | "right semantically follows from left"  |
+--------+---------------------+-----------------------------------------+

 Set-theoretic symbols
+---------+---------------------+---------------------------------------------+
| SYMBOL  | NAME                | MEANING                                     |
+---------+---------------------+---------------------------------------------+
| ∈       | Membership          | x ∈ A: "x is an element of A"               |
| ∉       | Non-membership      | x ∉ A: "x is not an element of A"           |
| ⊂, ⊆    | Subset              | A ⊂ B: "every element of A is element of B" |
| ⊃, ⊇    | Superset            | A ⊃ B: equivalent to B ⊂ A                  |
| ∪       | Union               | A ∪ B = {x : x∈A or x∈B}                    |
| ∩       | Intersection        | A ∩ B = {x : x∈A and x∈B}                   |
| \       | Difference          | A \ B = {x : x∈A and x∉B}                   |
| ∅       | Empty set           | Set with no elements                        |
| ℘(A)    | Boolean             | Set of all subsets of A                     |
| |A|     | Cardinality         | Number of elements (for finite)             |
| ×       | Cartesian product   | A×B = {(a,b) : a∈A, b∈B}                    |
+---------+---------------------+---------------------------------------------+

 Mapping symbols
+--------+---------------------+---------------------------------------------+
| SYMBOL | NAME                | MEANING                                     |
+--------+---------------------+---------------------------------------------+
| →      | Mapping             | f: X → Y: "f from X to Y"                   |
| ↦      | Mapping rule        | x ↦ f(x): "x maps to f(x)"                  |
| ∘      | Composition         | (g∘f)(x) = g(f(x))                          |
| f⁻¹    | Inverse / Preimage  | Inverse mapping or preimage of a set        |
| id     | Identity            | id(x) = x                                   |
| Im, im | Image               | Im f = f(X) = {f(x) : x∈X}                  |
| ker    | Kernel              | ker f = {x : f(x) = e} (e — neutral)        |
| Hom    | Set of morphisms    | Hom(A,B) = {morphisms from A to B}          |
+--------+---------------------+---------------------------------------------+

 Number sets
+---------+---------------------+---------------------------------------------+
| SYMBOL  | NAME                | ELEMENTS                                    |
+---------+---------------------+---------------------------------------------+
| ℕ       | Natural numbers     | {0, 1, 2, 3, ...} or {1, 2, 3, ...}         |
| ℤ       | Integers            | {..., −2, −1, 0, 1, 2, ...}                 |
| ℚ       | Rational numbers    | {p/q : p∈ℤ, q∈ℤ, q≠0}                      |
| ℝ       | Real numbers        | Number line (including irrationals)         |
| ℂ       | Complex numbers     | {a + bi : a,b∈ℝ, i² = −1}                   |
| ℍ       | Quaternions         | 4-dimensional extension of ℂ (noncomm.)*    |
| 𝕆       | Octonions           | 8-dimensional extension of ℍ (nonassoc.)    |
+---------+---------------------+---------------------------------------------+
| *ℍ: x²+1=0 has ∞ roots (±i, ±j, ±k and all their combinations on S²)      |
| ℝⁿ      | n-dimensional space | Set of n-tuples (x₁, ..., xₙ), xᵢ∈ℝ        |
+---------+---------------------+---------------------------------------------+
| S¹      | Unit circle         | {z ∈ ℂ : |z| = 1} = {e^{iθ} : θ ∈ [0,2π)}  |
| Sⁿ      | n-dimensional sphere| {x ∈ ℝⁿ⁺¹ : |x| = 1}. S² — ordinary sphere  |
| Tⁿ      | n-dimensional torus | S¹ × S¹ × ... × S¹ (n times). T² — donut    |
| ℝPⁿ     | Projective space    | Lines through 0 in ℝⁿ⁺¹. ℝP¹ ≅ S¹           |
+---------+---------------------+---------------------------------------------+

 Algebraic symbols
+---------+---------------------+-------------------------------------+
| SYMBOL  | NAME                | MEANING                             |
+---------+---------------------+-------------------------------------+
| ·, ∗    | Group operation     | Binary operation (multiplication)   |
| e, 1    | Neutral element     | e·g = g·e = g for all g             |
| g⁻¹     | Inverse element     | g·g⁻¹ = g⁻¹·g = e                   |
| ≤, < | Subgroup            | H ≤ G: "H is a subgroup of G"       |
| ⊲, ⊴    | Normal subgroup     | H ⊲ G: "H is a normal subgroup of G"|
| G/H     | Quotient group      | Set of cosets gH                    |
| ≅       | Isomorphism         | G ≅ H: "G is isomorphic to H"       |
| ⊕       | Direct sum          | V ⊕ W (for vector spaces)           |
| ⊗       | Tensor product      | V ⊗ W (tensor product)              |
| ∧       | Exterior product    | v ∧ w (antisymmetric)               |
+---------+---------------------+-------------------------------------+

 Topological symbols
+--------+-------------------+---------------------------------------+
| SYMBOL | NAME              | MEANING                               |
+--------+-------------------+---------------------------------------+
| τ      | Topology          | Family of open sets                   |
| B(x,ε) | Open ball         | {y : d(x,y) < ε}                   |
| Ā      | Closure           | Smallest closed set containing A      |
| int(A) | Interior          | Largest open set contained in A       |
| ∂A     | Boundary          | Ā \ int(A)                            |
| ≅      | Homeomorphism     | Topological equivalence               |
| ≃      | Homotopy equiv.   | Homotopy equivalence                  |
| π₁     | Fundamental group | π₁(X) — group of loops in X           |
| Hₙ     | Homology group    | n-dimensional "holes" in space        |
+--------+-------------------+---------------------------------------+

 Linear algebra symbols
+--------+----------------------+---------------------------------------+
| SYMBOL | NAME                 | MEANING                               |
+--------+----------------------+---------------------------------------+
| dim    | Dimension            | dim V = number of basis vectors       |
| rank   | Rank                 | rank A = dim Im A                     |
| det    | Determinant          | det A ∈ F (for square matrices)       |
| tr     | Trace                | tr A = Σ aᵢᵢ (sum of diagonal)        |
| ⟨·,·⟩  | Scalar product       | ⟨u,v⟩ ∈ F (bilinear form)             |
| ‖·‖    | Norm                 | ‖v‖ = √⟨v,v⟩                          |
| ⊥      | Orthogonality        | u ⊥ v ⟺ ⟨u,v⟩ = 0                     |
| V*     | Dual space           | V* = Hom(V, F) — linear functionals   |
| Aᵀ     | Transpose            | (Aᵀ)ᵢⱼ = Aⱼᵢ                          |
| A†, A* | Hermitian conjugate  | (A†)ᵢⱼ = Āⱼᵢ                          |
+--------+----------------------+---------------------------------------+

 Differential geometry symbols
+--------+---------------------+-----------------------------------+
| SYMBOL | NAME                | MEANING                           |
+--------+---------------------+-----------------------------------+
| TₚM    | Tangent space       | Vector space at point p           |
| T*ₚM   | Cotangent space     | Dual to TₚM                       |
| d      | Exterior derivative | d: Ωᵏ → Ωᵏ⁺¹, d² = 0              |
| Ωᵏ(M)  | k-forms             | Antisymmetric (0,k)-tensors       |
| ∇      | Connection / Nabla  | Covariant derivative              |
| ∂/∂xⁱ  | Coordinate basis    | Basis of tangent space            |
| dxⁱ    | Cobasis             | Basis of cotangent space          |
| gᵢⱼ    | Metric tensor       | ⟨∂/∂xⁱ, ∂/∂xʲ⟩                    |
| Γⁱⱼₖ   | Christoffel symbols | Connection coefficients           |
| Rⁱⱼₖₗ  | Riemann tensor      | Measure of space curvature        |
+--------+---------------------+-----------------------------------+

 Category theory symbols
+----------+--------------------+--------------------------------------+
| SYMBOL   | NAME               | MEANING                              |
+----------+--------------------+--------------------------------------+
| Ob(C)    | Objects            | Class of objects of category C       |
| Mor(C)   | Morphisms          | Class of morphisms of category C     |
| Hom(A,B) | Hom-set            | Morphisms from A to B                |
| F: C→D   | Functor            | Mapping between categories           |
| η: F⇒G   | Natural transf.    | Family of morphisms ηₐ: F(A)→G(A)    |
| ⊣        | Adjunction         | F ⊣ G: F left adjoint to G           |
| lim, ←   | Limit              | Universal cone over diagram          |
| colim,→  | Colimit            | Universal cocone under diagram       |
+----------+--------------------+--------------------------------------+

 Standard categories
+--------+---------------------+--------------------------------------------+
| SYMBOL | NAME                | OBJECTS / MORPHISMS                        |
+--------+---------------------+--------------------------------------------+
| Set    | Category of sets    | Sets / Functions                           |
| Grp    | Category of groups  | Groups / Group homomorphisms               |
| Ab     | Abelian groups      | Commutative groups / Homomorphisms         |
| Ring   | Category of rings   | Rings / Ring homomorphisms                 |
| Vect_F | Vector spaces       | Spaces over F / Linear mappings            |
| Top    | Topological spaces  | Spaces / Continuous mappings               |
| Man    | Manifolds           | Smooth manifolds / Smooth mappings         |
+--------+---------------------+--------------------------------------------+


===============================================================================
                   Reference: fundamental inequalities
===============================================================================

These inequalities are used throughout all of mathematics. Memorize them — they will
appear in analysis, linear algebra, probability theory, physics.

 Cauchy–Bunyakovsky–Schwarz inequality (CBS)


 +-------------------------------------------------------------------------+
 |                |⟨u, v⟩| ≤ ‖u‖ · ‖v‖                                    |
 |                                                                         |
 | Modulus of scalar product ≤ product of lengths                          |
 +-------------------------------------------------------------------------+

 Special cases:

 For vectors in ℝⁿ:
   |Σ aᵢbᵢ|² ≤ (Σ aᵢ²)(Σ bᵢ²)

 For integrals:
   |∫fg dx|² ≤ (∫f² dx)(∫g² dx)

 For sums:
   (a₁b₁ + a₂b₂)² ≤ (a₁² + a₂²)(b₁² + b₂²)

 Geometric meaning:
   cos θ = ⟨u,v⟩/(‖u‖·‖v‖), and |cos θ| ≤ 1

 When equality holds:
   u and v are collinear (one is a multiple of the other): v = λu


 Triangle inequality


 +--------------------------+
 | ‖u + v‖ ≤ ‖u‖ + ‖v‖      |
 |                          |
 | Length of sum ≤ sum of lengths |
 +--------------------------+

 For numbers: |a + b| ≤ |a| + |b|
 For metrics: d(x,z) ≤ d(x,y) + d(y,z)

 Reverse inequality:  |‖u‖ − ‖v‖| ≤ ‖u − v‖


 Inequality of means (AM-GM)


 +--------------------------------------------------------+
 | For nonnegative numbers a₁, ..., aₙ:                   |
 |                                                        |
 | (a₁ + a₂ + ... + aₙ)/n  ≥  ⁿ√(a₁ · a₂ · ... · aₙ)      |
 | AM              ≥           GM                         |
 | (arithmetic mean)              (geometric mean)        |
 +--------------------------------------------------------+

 Special case (n = 2):
   (a + b)/2 ≥ √(ab)     equality when a = b

 Application:
   Minimizing sum with fixed product (and vice versa)

 Example: Which rectangle with perimeter 20 has max area?
   2(a+b) = 20 ⇒ a+b = 10
   S = ab ≤ (a+b)²/4 = 25  (max when a = b = 5, i.e. square)


 Jensen's inequality


 +--------------------------------------------------+
 | For CONVEX function f and weights λᵢ ≥ 0 with Σλᵢ = 1: |
 |                                                  |
 | f(Σ λᵢxᵢ)  ≤  Σ λᵢf(xᵢ)                          |
 |                                                  |
 | Function of mean ≤ mean of function              |
 +--------------------------------------------------+

 Important: For concave function sign changes to ≥

 Examples of convex functions: x², eˣ, |x|, −ln x (on x>0)
 Examples of concave functions: √x, ln x, −x²

 Special case: AM-GM follows from Jensen for f(x) = −ln(x)


 Hölder's and Minkowski's inequalities


 Hölder's inequality (generalization of CBS):

   For p, q > 1 with 1/p + 1/q = 1:

   +-----------------------------------------------------------------------+
   |  Σ|aᵢbᵢ| ≤ (Σ|aᵢ|ᵖ)^(1/p) · (Σ|bᵢ|^q)^(1/q)                         |
   |                                                                       |
   |  ‖ab‖₁ ≤ ‖a‖ₚ · ‖b‖_q                                               |
   +-----------------------------------------------------------------------+

   When p = q = 2 we get CBS.

 Minkowski's inequality (triangle inequality for Lᵖ):

   +-----------------------------------------------------------------------+
   |  (Σ|aᵢ+bᵢ|ᵖ)^(1/p) ≤ (Σ|aᵢ|ᵖ)^(1/p) + (Σ|bᵢ|ᵖ)^(1/p)               |
   |                                                                       |
   |  ‖a + b‖ₚ ≤ ‖a‖ₚ + ‖b‖ₚ                                             |
   +-----------------------------------------------------------------------+

   This proves that ‖·‖ₚ is indeed a norm.


 Table: When to use which inequality
+-------------------------------+---------------------------------------------+
| SITUATION                     | INEQUALITY                                  |
+-------------------------------+---------------------------------------------+
| Estimate scalar product       | CBS: |⟨u,v⟩| ≤ ‖u‖·‖v‖                    |
+-------------------------------+---------------------------------------------+
| Estimate norm of sum          | Triangle: ‖u+v‖ ≤ ‖u‖+‖v‖                 |
+-------------------------------+---------------------------------------------+
| Compare sum and product       | AM-GM: (a+b)/2 ≥ √(ab)                     |
+-------------------------------+---------------------------------------------+
| Convex function of mean       | Jensen: f(Ex) ≤ E[f(x)]                    |
+-------------------------------+---------------------------------------------+
| Work in Lᵖ spaces             | Hölder, Minkowski                          |
+-------------------------------+---------------------------------------------+

 Applied example: inequalities in heat transfer


 Problem 1: Rectangle of maximum area at fixed perimeter (AM-GM)
-------------------------------------------------------------------------------

   Designing a fence. Given perimeter P = 2(a + b) = 20.
   Which rectangle shape gives the maximum area S = ab?

   By AM-GM:  (a + b)/2 ≥ √(ab),  i.e.  ab ≤ ((a+b)/2)² = (P/4)²

   Maximum ab = (P/4)² is achieved when a = b (square).
   For P = 20: S_max = 25, at a = b = 5.

   This is the classical isoperimetric inequality for rectangles.

   Note on fin design: the dual problem "maximize a+b at fixed ab" has NO
   maximum (a+b→∞ as a→0, b→∞). That is why heat-sink fins are made thin
   and long, not square — the actual constraint is "strength" or "minimum
   manufacturing thickness", not "fixed cross-section area".

 Problem 2: Fan power estimate (CBS)
-------------------------------------------------------------------------------
Air velocity v(x,y) is inhomogeneous across the duct cross-section.
   We need to estimate the kinetic energy of the flow.

   E = ½ρ ∬ v³ dA = ½ρ ∬ v·v² dA

   By Cauchy–Bunyakovsky:
   (∬v·v² dA)² ≤ (∬v² dA)·(∬v⁴ dA)

   This allows estimating energy through simpler integrals.

 Problem 3: Temperature averaging (Jensen)
-------------------------------------------------------------------------------

   Emissivity ~ T⁴ (Stefan-Boltzmann law).
   T⁴ — convex function.

   By Jensen: (average T)⁴ ≤ average(T⁴)

   Practical meaning:
   One cannot replace temperature distribution with average temperature
   when calculating radiative heat transfer — this gives underestimation.

   If T₁ = 300 K, T₂ = 500 K:
   (400)⁴ = 2.56×10¹⁰ — using average temperature
   ½(300⁴ + 500⁴) = 3.53×10¹⁰ — correct calculation (38% higher)


===============================================================================
Vector analysis — engineer's handbook
===============================================================================

 Intuition: what grad, div, rot do


 ∇f (gradient) — "where to go up?"
-------------------------------------------------------------------------------

   Imagine a height map (temperatures, pressures).
   ∇f — this is an arrow pointing in the direction of greatest increase of f.
   Length |∇f| = steepness of ascent.

            high
              ○
             /|\
            / | \     ∇f points upward along slope
           /  |  \    +---→
          /   |   \   |
         -----●-----  (point where you stand)
                low

   Example: T(x,y) = 20 − x² − y² (temperature hill in center)
   ∇T = (−2x, −2y) — directed toward center (to hill peak)

 Div F (divergence) — "source or sink?"
-------------------------------------------------------------------------------

   Imagine vector field as fluid flow.
   div F > 0: at this point fluid appears (source, faucet)
   div F < 0: at this point fluid disappears (sink, drain)
   div F = 0: as much flows in as flows out (incompressible flow)

      Source (div > 0) sink (div < 0) div = 0

            ↑                        ↓                    → → →
         ←--●--→                  →--●--←                 → → →
            ↓                        ↑                    → → →
      (arrows diverge)        (arrows converge)     (uniform flow)

   Example: F = (x, y, z) (radial field)
   div F = ∂x/∂x + ∂y/∂y + ∂z/∂z = 3 > 0 — source everywhere.

 Rot F (curl) — "is there a vortex?"
-------------------------------------------------------------------------------

   Imagine a small propeller thrown into flow.
   rot F ≠ 0: propeller spins (there is a vortex)
   rot F = 0: propeller does NOT spin (potential flow)

      Vortex (rot ≠ 0) potential (rot = 0)

           ←                            ↑
        ↙     ↖                         ↑
       ↓   ●   ↑                        ↑
        ↘     ↗                         ●
           →                            ↑
     (swirls)                    (rectilinear)

   Direction of rot F — rotation axis (by right-hand rule)
   Length |rot F| — rotation speed

   Example: F = (−y, x, 0) (circular flow)
   rot F = (0, 0, 2) — vortex along z axis


 Formulas in Cartesian coordinates (x, y, z)


   ∇f = (∂f/∂x, ∂f/∂y, ∂f/∂z)

   div F = ∂Fₓ/∂x + ∂Fᵧ/∂y + ∂F_z/∂z

   rot F = (∂F_z/∂y − ∂Fᵧ/∂z,  ∂Fₓ/∂z − ∂F_z/∂x,  ∂Fᵧ/∂x − ∂Fₓ/∂y)

   ∇²f = ∂²f/∂x² + ∂²f/∂y² + ∂²f/∂z²   (Laplacian)


 Formulas in cylindrical coordinates (r, φ, z)


   x = r cos φ,  y = r sin φ,  z = z

   ∇f = (∂f/∂r,  (1/r)∂f/∂φ,  ∂f/∂z)

   div F = (1/r)∂(rFᵣ)/∂r + (1/r)∂Fφ/∂φ + ∂F_z/∂z

   rot F = ((1/r)∂F_z/∂φ − ∂Fφ/∂z,
            ∂Fᵣ/∂z − ∂F_z/∂r,
            (1/r)[∂(rFφ)/∂r − ∂Fᵣ/∂φ])

   ∇²f = (1/r)∂/∂r(r∂f/∂r) + (1/r²)∂²f/∂φ² + ∂²f/∂z²

 When to use: pipes, cylinders, axisymmetric problems


 Formulas in spherical coordinates (r, θ, φ)


   x = r sin θ cos φ,  y = r sin θ sin φ,  z = r cos θ
   (θ — angle from z axis, φ — azimuthal angle)

   ∇f = (∂f/∂r,  (1/r)∂f/∂θ,  (1/(r sin θ))∂f/∂φ)

   div F = (1/r²)∂(r²Fᵣ)/∂r + (1/(r sin θ))∂(sin θ Fθ)/∂θ
          + (1/(r sin θ))∂Fφ/∂φ

   ∇²f = (1/r²)∂/∂r(r²∂f/∂r) + (1/(r²sin θ))∂/∂θ(sin θ ∂f/∂θ)
        + (1/(r²sin²θ))∂²f/∂φ²

 When to use: balls, spheres, point sources


 Most important identities


   rot(∇f) = 0       ← "Gradient is irrotational"
                        (potential field does not rotate)

   div(rot F) = 0   ← "Vortex has no sources"
                        (vortex lines are closed)

   rot(rot F) = ∇(div F) − ∇²F

   div(fF) = f div F + ∇f · F

   rot(fF) = f rot F + ∇f × F


 Connection with physics (equations in vector form)


 Heat conduction:
   q = −λ∇T               (heat flux ~ minus temperature gradient)
   ∂T/∂t = a∇²T            (heat equation)

 Hydrodynamics:
   div v = 0               (incompressible fluid)
   ∂v/∂t + (v·∇)v = −∇p/ρ + ν∇²v   (Navier–Stokes)

 Electrodynamics (Maxwell):
   div E = ρ/ε₀           (source of E — charges)
   div B = 0               (no magnetic monopoles)
   rot E = −∂B/∂t         (change in B generates vortex E)
   rot B = μ₀J + μ₀ε₀∂E/∂t   (current and change in E generate B)



===============================================================================
                         The Grand Unification
===============================================================================


   All of mathematics is one pattern, viewed from different perspectives.

   +---------------------------------------------------------------------+
   |                                                                     |
   |                          Structure                                  |
   |                              |                                      |
   |            +-----------------+-----------------+                    |
   |            |                 |                 |                    |
   |            ▼                 ▼                 ▼                    |
   |      +----------+      +----------+      +----------+              |
   |      | Algebra  |      |Topology  |      | Analysis |              |
   |      |          |      |          |      |          |              |
   |      |symmetry  |◄----►|  shape   |◄----►|  change  |              |
   |      | G · g⁻¹  |      |  τ, π₁   |      |  d, ∫    |              |
   |      +----------+      +----------+      +----------+              |
   |            |                 |                 |                    |
   |            +-----------------+-----------------+                    |
   |                              |                                      |
   |                              ▼                                      |
   |                     +----------------+                              |
   |                     |   Categories   |                              |
   |                     |                |                              |
   |                     | Objects        |                              |
   |                     | Morphisms      |                              |
   |                     | Functors       |                              |
   |                     +----------------+                              |
   |                              |                                      |
   |                              ▼                                      |
   |                    Universal language                               |
   |                                                                     |
   +---------------------------------------------------------------------+

   A group is a category with one object, where all morphisms are invertible.
   Topology is the category Top: objects are topological spaces,
            morphisms are continuous mappings.
   Linear algebra is the category Vect: objects are vector spaces,
            morphisms are linear maps.
            It also carries ⊕ (direct sum) and ⊗ (tensor product).

   When you understand one structure deeply — you understand all.


 One language — many dialects


   +---------------------------------------------------------------------+
   |                                                                     |
   |    ALGEBRA         TOPOLOGY        LIN.ALGEBRA      DIFF.GEOM.      |
   |       |                |                |               |          |
   |       ▼                ▼                ▼               ▼          |
   |    +-----+          +-----+          +-----+        +-----+       |
   |    |ker φ|          | π₁  |          |ker T|        |ker d|       |
   |    +--+--+          +--+--+          +--+--+        +--+--+       |
   |       |                |                |               |          |
   |       +----------------+----------------+---------------+          |
   |                        |                |                          |
   |                        ▼                ▼                          |
   |                 one and the same pattern:                          |
   |                                                                     |
   |                     "WHAT GOES TO ZERO"                            |
   |                                                                     |
   |   The kernel is what "collapses", "is lost", "becomes trivial"     |
   |   when applying a morphism.                                        |
   |                                                                     |
   |   dim V = dim ker + dim Im  ← THIS WORKS EVERYWHERE.               |
   |                                                                     |
   +---------------------------------------------------------------------+


 Why this matters


   Mathematics is not a set of techniques for passing an exam.
   Mathematics is the language in which the Universe is written.

   Maxwell's laws: dF = 0, d*F = J  (two lines)
   Gravity:       Gμν = 8πTμν      (one equation)
   Quantum mechanics: iℏ∂ψ/∂t = Ĥψ  (one equation)

   The structures described in this atlas underlie:
   • Elementary particle physics (symmetry groups)
   • General relativity (manifolds, tensors)
   • Quantum mechanics (Hilbert spaces, operators)
   • Cryptography (number theory, elliptic curves)
   • Machine learning (linear algebra, optimization)

   By studying mathematics, you are studying the structure of reality itself.


         "The book of nature is written in the language of mathematics"

                                         — Galileo Galilei


         "God is a geometer"

                                         — Plato


         "Mathematics is the music of reason"

                                         — James Joseph Sylvester



Mathematics is not a set of formulas. It is a way of seeing the world:
finding invariants amid change, structure amid chaos,
unity amid differences.

Emptiness → boundaries → space → structure → measurement.

This path continues.


===============================================================================
                          What's Next
===============================================================================

This atlas covers the core of mathematics. Beyond it lie territories
where active research is being conducted. A map for orientation:

 Algebra:
   • Representation theory — how groups act on spaces
   • Homological algebra — chain complexes, derived functors
   • Algebraic K-theory — generalization of the notion of dimension

 Geometry and topology:
   • Homotopy type theory — new foundation of mathematics
   • Knot theory — Jones invariants, connection to quantum physics
   • Algebraic topology — spectral sequences
   • Symplectic topology — Arnold's conjecture, Gromov's theorem

 Analysis:
   • Stochastic analysis — Itô integral, Feynman-Kac formula
   • Microlocal analysis — operators, wave fronts
   • Noncommutative geometry (Connes) — generalization of manifolds

 Mathematical physics:
   • Quantum field theory — functional integrals, renormalization
   • General relativity — Einstein's equations, black holes
   • String theory — gauge/gravity duality

 Discrete mathematics and computer science:
   • Complexity theory — P vs NP, cryptography
   • Game theory — equilibria, mechanisms
   • Combinatorics on infinite structures — Ramsey theory

Each of these territories uses the language we already know:
groups, spaces, forms, measures, functors. The atlas is a compass.