Programmers / 스킬트리 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 스킬 트리 (2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/49993 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 문제 설명 선행 스킬이란 어떤 스킬을 배우기 전에 먼저 배워야 하는 스킬을 뜻합니다. 예를 들어 선행 스킬 순서가 스파크 → 라이트닝 볼트 → 썬더일때, 썬더를 배우려면 먼저 라이트닝 볼트를 배워야 하고, 라이트닝 볼트를 배우려면 먼저 스파크를 배워야 합니다. 위 순서에 없는 다른 스킬(힐링 등)은 순서에 상관..
Programmers / 이진 변환 반복하기 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 이진 변환 반복하기 (2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/70129 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 문제 설명 0과 1로 이루어진 어떤 문자열 x에 대한 이진 변환을 다음과 같이 정의합니다. x의 모든 0을 제거합니다. x의 길이를 c라고 하면, x를 "c를 2진법으로 표현한 문자열"로 바꿉니다. 예를 들어, x = "0111010"이라면, x에 이진 변환을 가하면 x = "0111010" -> "1..
[머신러닝]Feature Selection
·
공부정리/Deep learnig & Machine learning
Feature Selection Feature Selection은 ML에 있어서 매우 중요한 기술입니다. Feature Selection의 기본적인 아이디어는, 모델링 시 raw data의 모든 feature를 사용하는 것은 computing power와 memory 측면에서 매우 비효율적이기 때문에, 일부 필요한 feature만 선택해서 사용하자는 것입니다. 어떻게 보면, Feature Selection은 여러분의 모델 성능을 높이기 위해서 반드시 필요한 기술 중 하나입니다. Feature Selection은 Feature Engineering, Feature Extraction과 유사하지만, 표현 자체는 구분되며, 간단하게 정리하면 아래와 같습니다. Feature Engineering : 도메인 지식..
[핵심 머신러닝] 정규화모델 2 - LASSO, Elastic Net
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=sGTWFCq5OKM [핵심 머신러닝] 정규화모델 2 - LASSO, Elastic Net 슈잉키지: 값을 줄이면서 작아지는것 자동으로 선택 릿지와 비슷한데 제약식에 절댓값을 둔것 여기서는 t를 작게하면 =>람다를 크게하는 것 =>제약을 많이 가한다. t를 크게하면 =>람다를 작게하는 것 =>제약을 적게 가한다. 불연속임.. 마름모 밖에 있는 것은 답이 아니다 MSE값을 크게 늘려보자. (최소제곱법에있는 unbias를 포기) 베타1 = 0 해당 변수에 해당하는 계수가 0이다. 그 변수가 y를 예측하..
[머신 러닝] 서포트 벡터 머신 (SVM) 보충 - 라그랑즈 승주법
·
공부정리/Deep learnig & Machine learning
라그랑즈 승주법에 대해 간단하게 설명해보겠습니다. 라그랑즈 승주법 최적화 문제에서 사용되는 수학적 기법 최대 또는 최솟값을 찾으려는 문제에서 해결방법으로 사용된다. 라그랑즈 승주법을 사용하는 방법 목적 함수 제약 조건 제약 조건에 대해 새로운 변수 를 이용하여 다음의 보조 방정식을 만든다. 목적 함수와 제약 조건에 대해 위와 같은 보조 방정식을 만들고 문제를 풀 수 있게 되는 이유는 제약 조건을 만족시키면서 목적 함수를 최대화 또는 최소화 시키는 점에서는 목적함수의 gradient(쉽게 말해 기울기)와 제약 조건의 gradient가 평행하기 때문이다. 라는 제약조건을 만족시키면서 가 커질 수 있는 최대값은? 물론 d1일 것임 (제약조건을 지나는 값이 d1밖에 없으므로) 그런데 이 값을 유심히 관찰하면 와..
[머신러닝] 서포트 벡터 머신 (SVM) 개념 & 구현 / 파이썬 Python
·
공부정리/Deep learnig & Machine learning
1. 서포트 벡터 머신(Support Vector Machine) 서포트 벡터 머신은 분류, 회귀에 모두 사용할 수 있는 매우 강력한 모델로서, 특히 복잡한 분류 문제, 작거나 중간 크기의 데이터셋에 적합하다. 1,2,3번 중 어느 직선이 가장 두 집단을 잘 분류했다고 할 수 있을까? 그리고 잘 분류했다는것은 어떤 의미일까? 여기서 서포트 벡터 머신의 개념이 나온다. 서포트 벡터 머신은 여러 집단들을 가장 잘 구분할 수 있는 최적의 선을 찾는것이 목표이다. 오른쪽 그림의 3개의 직선 중에서는 1번 직선이 두 집단을 가장 잘 분류한 최적의 직선이라고 할 수 있다. 2. 서포트 벡터 머신(Support Vector Machine)에서의 최적의 직선 그렇다면 왜 1번 직선이 최적의 직선이라고 할 수 있을까? ..
[Data Science from Scratch] Chapter 16. LogisticRegression
·
공부정리/Data Science
참고 서적 도서명: Data Science from Scratch (밑바닥부터 시작하는 데이터 과학) 저자 : Joel Grus 출판 : 프로그래밍 인사이트 Ch 16. Logistic Regression Logistic Regression 다음과 같이 독립변수가 p개인 다중 선형 회귀 식이 있다. 선형 회귀는 종속변수 y가 연속형이며, 아파트 가격을 예측 하는 것이 하나의 예시가 될 수 있을 것이다. 선형 회귀는 독립변수 x와 종속변수 y의 관계가 선형이라고 가정하고, 이를 가장 잘 설명하는 회귀계수들을 데이터로부터 추정하는 모델이다. 선형 회귀의 그래프를 그려보면 아래와 같다. 하지만, 종속변수 y가 범주형 변수라면, 어떻게 될까? 타이타닉 데이터를 예로 들었을 때, 왼쪽그림과 같은 경우 0 = 사망..
[Data Science from Scratch] Chapter 15. Multiple Regression
·
공부정리/Data Science
보호되어 있는 글입니다.
[Data Science from Scratch] Chapter 14. Simple LinearRegression
·
공부정리/Data Science
보호되어 있는 글입니다.
문제 / 합이 같은 부분집합(DFS) / Python 파이썬
·
coding test - python/기본기 문제
문제 제목: 합이 같은 부분집합(DFS) N개의 원소로 구성된 자연수 집합이 주어지면, 이 집합을 두 개의 부분집합으로 나누었을 때 두 부분집합의 원소의 합이 서로 같은 경우가 존재하면 “YES"를 출력하고, 그렇지 않으면 ”NO"를 출력하는 프로그램을 작성하세요. 둘로 나뉘는 두 부분집합은 서로소 집합이며, 두 부분집합을 합하면 입력으로 주어진 원래의 집합이 되어 합니다. 예를 들어 {1, 3, 5, 6, 7, 10}이 입력되면 {1, 3, 5, 7} = {6, 10} 으로 두 부분집합의 합이 16으로 같은 경우가 존재하는 것을 알 수 있다. ▣ 입력설명 첫 번째 줄에 자연수 N(1 total // 2: return 모범답안 def DFS(L,sum): if sum > total // 2: return..
[핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression)
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=pJCcGK5omhE [핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression) 좋은 모델이란? 현재 데이터(training data)를 잘 설명하는 모델 Explanatory modeling 미래 데이터(testing data)에 대한 예측 성능이 좋은 모델 Predictive modeling 현재 데이터(training data)를 잘 설명하는 모델 = traing error를 minimize 하는 모델 MSE(traning) = (Y-Y^)^2 기본적인 ..
[핵심 머신러닝] SVM 모델 2 (Soft Margin SVM, Nonlinear SVM, Kernel)
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=ltjhyLkHMls&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=19 Linearly Nonseparable Case (soft Margin SVM) 선형으로 분리할 수 없는 경우 linear SVM -> hard margin svm 어떠한 식으로 해도 2차원 공간에서 파란색과 초록색을 트레인 에러가 0이되도록 만들 수 있는 직선이 없는 경우 -> 비선형 지난 시간 리뷰 마진을 최대화 시키는 하이퍼파라미터를 찾는 것이 목표였음 선형 SVM과 다른 점 정규화는 ..