일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 그리디
- dbms
- greedy
- Kruskal's Algorithm
- 다이나믹 프로그래밍
- jsp
- 웹서버
- Prim's Algorithm
- 크루스칼 알고리즘
- 네이버 부스트캠프 ai tech
- programmers
- 순열 알고리즘
- 벡엔드
- 정렬 알고리즘
- mysql
- request
- 웹 프로그래밍
- 프로그래머스
- SERVLET
- BJ
- 프림 알고리즘
- 백준
- 해시
- 부스트코스
- DP
- 웹프로그래밍
- 정렬
- 브라우저
- mst
- 소수
- Today
- Total
목록선형대수학 (3)
끵뀐꿩긘의 여러가지

1.2 벡터공간 체(Field): 체 $F$는 두 연산 $+$ 와 $\cdot$(덧셈(sum)과 곱셈(product))이 주어진 집합이다. $ x,y \in F$의 순서상에 대하여 $x+y, x\cdot y$가 $F$에 유일하게 존재한다. 그리고 모든 원소 $a,b,c \in F$에 대하여 다음 조건이 성립한다. (F1) (덧셈과 곱셈에 대한 교환 법칙) $a+b = b+a, a\cdot b = b\cdot a$ (F2) (덧셈과 곱셈에 대한 결합 법칙) $(a+b)+c = a+(b+c), (a\cdot b)\cdot c = a \cdot (b\cdot c)$ (F3) (덧셈과 곱셈에 대한 항등원(identity)) $0+a = a, 1\cdot a = a$인 $0 \in F $와 $1 \in F $ (..

1. 벡터공간, vectorspace 1.1 개론 벡터(vector): 크기와 방향을 모두 가진 물리량 벡터의 합(sum): $\vec{a} + \vec{b} = \vec{c}$ 벡터의 합은 평행사변형 법칙(parallelogram law)를 사용하여 합성벡터로 나타낼 수 있다. > 평행사변형 법칙(parallelogram law): 시점이 $P$로 일치하는 두 벡터 $x,y$의 합은 점 $P$에서 시작하는 벡터이고, 이는 $x$와 $y$를 이웃한 변으로 하는 평행사변형의 대각선으로 나타난다. 벡터의 합의 대수적 이해: 벡터 $\vec{a}$의 종점을 $(a_1,a_2)$, 벡터 $\vec{b}$의 종점을 $(b_1,b_2)$라고하면 $\vec{a} + \vec{b}$의 종점은 $(a_1+b_1,a_2+..

1.1 서론 기계학습은 나머지 변수들로부터 특정 변수들을 예측하기 위해 여러 속성을 포함하는 데이터로부터 수학적 모델을 구축한다. 이러한 모델은 변수들간으니 선형 및 비선형 관계로 표현된다. 모델과 관측된 데이터 간의 일치도를 최적화(최대화)함으로써 데이터 기반 방식으로 이러한 관계를 발견할 수 있다. --> 최적화 문제 선형대수는 벡터 공간에서의 선형 연산을 다룬다. 데이터가 다중 차원의 점으로 표현되므로, 고차원 벡터에 선형 함수들을 적용하는 선형 변환과 관련된 선형대수는 데이터 문제에서 중요하다. 1.2 스칼라, 벡터, 행렬 스칼라(scalar): 스칼라는 대부분의 기계학습 으용에서 일밙거으로 실제 도메인에서 가져온 개별 숫자 값이다. (ex. 속성의 값) 소문자로 표현된다 벡터(vector): 벡..