Умножение матриц — одна из фундаментальных операций в линейной алгебре, широко применяемая в компьютерной графике, машинном обучении и физике. В отличие от умножения чисел, для матриц эта операция имеет специфические условия и правила выполнения.
Ключевое условие: Умножить матрицу A (размером m×n) на матрицу B (размером p×k) можно только если n = p, то есть количество столбцов первой матрицы равно количеству строк второй.
Для произведения матриц используется "строка на столбец" метод. Элемент cᵢⱼ результирующей матрицы вычисляется как сумма произведений элементов i-й строки первой матрицы на соответствующие элементы j-го столбца второй матрицы.
Рассмотрим матрицы:
| A = | 1 | 3 |
|---|---|---|
| 2 | 4 | |
| B = | 5 | 7 |
| 6 | 8 |
Результатом умножения A × B будет:
| C = | (1·5+3·6) | (1·7+3·8) |
|---|---|---|
| (2·5+4·6) | (2·7+4·8) | |
| 23 | 31 | |
| 34 | 46 |
Матричное умножение имеет несколько важных особенностей:
Для единичной матрицы I (в которой главная диагональ — единицы, остальное — нули) выполняется: A×I = A и I×A = A для любой матрицы A подходящего размера.
Умножение матриц лежит в основе многих численных методов:
Важно отметить, что в 2025 году современные алгоритмы матричного умножения (такие как алгоритм Штрассена и методы с низкой асимптотической сложностью) позволяют ускорить вычисления, особенно при работе с большими матрицами, что критично для искусственного интеллекта.
При работе с числовыми матрицами стоит учитывать:
Для облегчения понимания многие визуализируют умножение матриц как комбинацию линейных преобразований пространства.