2020/04/24 - [공부/Deep Learning] - CSV 파일이란 .CSV 파일은 콤마로 구분된 파일이다. 메모장이나 엑셀로도 열수 있어서 편하게 접근 저장 가능하다는 장점이 있다. 구글 드라이브에서 CSV파일 업로드 방법. 왼쪽을 보면 폴더 모양 아이콘이 존재한다. 클릭해주면 파일이라는 사이드에 메뉴가 생긴다. 아래와 같이 왼쪽 첫 번째 아이콘을 눌러주고 원하는 .CSV 파일을 선택한다. 선택하면 아래와 같이 원하는 .CSV 파일을 가져오게 된다. 그리고 이 파일을 사용하기 위해서 경로를 알아야 하는데 마우스를 파일에 호버 시키면 우측에 점 3개가 나온다. 클릭해주면 경로 복사 메뉴가 존재하고 이것을 눌러주고 사용해야 하는 곳에 붙여 넣기를 해주면 된다.
Colaboratory(또는 줄여서 'Colab')를 사용하면 브라우저에서 Python을 작성하고 실행할 수 있습니다. 많이들 편리하게 사용하곤 합니다. Google 드라이브 계정에서 스프레드시트를 통해 사용할 수도 있습니다. Google 드라이브에 추가해보도록 하겠습니다. 구글 드라이브를 열어줍니다. 왼쪽 메뉴에 새로 만들기 버튼을 눌러줍니다. 그리고 더보기를 눌러줍니다. 다음으론 연결할 앱 더보기를 눌러줍니다. (저는 이전에 설치했어서 Google Golaboratory가 메뉴 내에 뜨지만, 설치되어 있지 않으면 안 뜹니다.) 그럼 이 창이 뜰 거예요. 다음에 Colaboratory를 검색해줍니다. 그리고 설치를 눌러줍니다. 그럼 설치됨이라고 표시가 뜰 거예요. 다음 동일하게 왼쪽 메뉴에서 새로 만들..
CSV는 Comma-Separated Values의 약자로 각각의 데이터 필드 값을 콤마(,)로 구분하는 파일 형식이다. CSV파일은 정부에서 운영하는 공공데이터포털 사이트에서 제공하는 일반적인 파일 형식으로, 데이터 분석 전문가들이 자주 사용하는 파일 형식이기도 하다. https://ko.wikipedia.org/wiki/CSV_(%ED%8C%8C%EC%9D%BC_%ED%98%95%EC%8B%9D) CSV (파일 형식) - 위키백과, 우리 모두의 백과사전 위키백과, 우리 모두의 백과사전. CSV(영어: comma-separated values)는 몇 가지 필드를 쉼표(,)로 구분한 텍스트 데이터 및 텍스트 파일이다. 확장자는 .csv이며 MIME 형식은 text/csv이다. comma-separated..
오차 역전파 back propagation 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 오차 역전 법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만, 안정적인 결과를 얻을 수 있다는 장점이 있다. 단일 퍼셉트론에서 경사 하강법을 사용해 가중치를 구했다. 임의의 가중치를 선언하고 결괏값을 이용해 오차를 구한 뒤 이 오차가 치소인 지점으로 계속해서 이동시키며 최선의 직선을 구했다. 다층 퍼셉트론에서의 최적화 과정을 오차 역전 파라고 부른다. 다중 퍼셉트론에서는 결과값의 오차를 구해 앞선 가중치를 차례로 거슬러 올라가며 조정해나간다. 구동 방식 - 임의의 초기 가중치(W)를 준 뒤 결과(y)를 계산한다. - 계산 결과와 우리가 원하는 값 사..
퍼셉트론 Perceptron 인공신경망의 한 종류이며 신경망을 이루는 가장 중요한 기본 단위이다. 입력 값과 활성화 함수를 사용해 출력 값을 다음으로 넘기는 가장 작은 신경망 단위이다. 각 노드의 가중치와 입력치를 곱한 것을 모두 합한 값이 활성함수에 의해 판단되는데, 그 값이 임계치(보통 0)보다 크면 뉴런이 활성화되고 결과값으로 1을 출력한다. 뉴런이 활성화되지 않으면 결과값으로 -1을 출력한다. 단층 퍼셉트론의 한계 단층 퍼셉트론은 XOR연산이 불가능하다. XOR은 입력 값 두개가 다를 경우에만 1이 출력된다. AND OR XOR 0 0 0 0 0 0 1 0 1 1 1 0 0 1 1 1 1 1 1 0 왼쪽에서부터 차례로 AND, OR, XOR을 나타낸다. AND와 OR은 직선을 그어서 1인 결과 값..
경사 하강법 Gradient descent 1차 근삿값 발견용 최적화 알고리즘이다. 함수의 기울기를 구하여 기울기가 낮은 쪽으로 계속 이동시켜서 극값이 이를 때까지 반복하는 것이다. 경사 하강법은 반복적으로 기울기 a를 변화시켜 m의 값을 찾아내는 방법이다. 아래의 과정을 따라 반복한다. a1에서 미분을 구한다. 구해진 기울기의 반대 방향으로 a2에서 미분을 구한다. a3에서 미분을 구한다. 3의 값이 0이 아니면 위 과정을 반복한다. 기울기의 부호를 바꿔 이동시킬 때 절적한 거리를 찾지 못해 너무 멀리 이동시키면 a가 모이지 않고 치솟아 버린다. 따라서 어느 만큼 이동시킬 시 잘 결정해야하는데 학습률이 이동 거리를 정해주는 것이다. 위 그래프는 학습률을 너무 크게 잡아 한점으로 수렴하지 않는 예다. (..
로지스틱 회귀 logistic regression 로지스틱 회귀는 독립 변수의 선형 결합을 이용하여 사건의 발생 가능성을 예측하는 데 사용되는 통계 기법이다. 로지스틱 회귀의 목적은 일반적인 회귀 분석의 목표와 동일하게 종속 변수와 독립 변수간의 관계를 구체적인 함수로 나타내어 향후 예측 모델에 사용하는 것이다. 이는 독립 변수의 선형 결합으로 종속 변수를 설명한다는 관점에서는 선형 회귀 분석과 유사하다. 하지만 로지스틱 회귀는 선형 회귀 분석과는 다르게 종속 변수가 범주형 데이터를 대상으로 하여 입력 데이터가 주어졌을 때 해당 데이터의 결과가 특정 분류로 나뉘기 때문에 일종의 분류 기법으로 볼 수 있다. 로지스틱 회귀는 이항 또는 다항형이 될 수 있다. - 이항형 로지스틱 회귀는 종속 변수의 결과가 (..
2020/04/08 - [공부 👩💻/Deep Learning] - 선형 회귀와 최소제곱법 선형 회귀와 최소제곱법 선형 회귀 linear regression 선형 회귀는 종속 변수 y와 한 개 이상의 독립변수 X와의 선형 상관관계를 모델링하는 회기 분석 기법이다. 한 개의 독립변수가 있으면 단순 선형 회귀, 둘 이상이면 다중 선형 회귀.. hyerios.tistory.com 최소제곱법으로 최선의 직선을 구했지만, 여러 개의 입력을 처리하기에는 무리가 있다. 여러 개의 입력을 처리할 때는 임의의 선을 그리고 이 선이 최선의 직선인가 평가하여 수정하는 방법을 사용한다. 오차를 평가하는 방법 중 가장 많이 사용되는 평균 제곱근 오차에 대해서 알아본다. 평균 제곱근 오차 Root Mean Square Error..
- Total
- Today
- Yesterday
- 애니메이션
- RX
- 책 추천
- string
- 스위프트
- 문자열
- 독서
- objective-c
- rxswift
- swiftUI
- ReactiveX
- Deep learning
- ARC
- SWIFT
- 알고리즘
- wwdc
- ios
- 딥러닝
- stanford SwiftUI
- 책
- objc
- Algorithm
- swift5
- iOS SwiftUI
- 머신러닝
- 스위프트UI
- Xcode
- 책 후기
- leetcode
- Animation
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |