Programmers / 쿼드압축 후 개수 세기 / Python 파이썬
·
coding test - python/Programmers
보호되어 있는 글입니다.
[핵심 머신러닝] 군집분석
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=8zB-_LrAraw [핵심 머신러닝] 군집분석 군집화 개념 유사한 속성들을 갖는 관측치들을 묶어 전체 데이터를 몇개의 군집(그룹)으로 나누는 것 동일한 군집에 소속된 관측치들은 서로 유사할 수록 좋음 상이한 군집에 소속된 관측치들은 서로 다를 수록 좋음 분류(Classification) VS 군집화(Clustering) 분류모델 : Y가 있다. (예측하려는 것이 목적) - 군집: Y 가 없다. (예측이 목적이 아님) - > decision boudary가 없음 적용사례 1. 고객 회사는 고객의 정..
Programmers / 가장 큰 사각형 찾기 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 가장 큰 사각형 찾기 (2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/12905 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 문제 설명 1와 0로 채워진 표(board)가 있습니다. 표 1칸은 1 x 1 의 정사각형으로 이루어져 있습니다. 표에서 1로 이루어진 가장 큰 정사각형을 찾아 넓이를 return 하는 solution 함수를 완성해 주세요. (단, 정사각형이란 축에 평행한 정사각형을 말합니다.) 예를 들어 1234 ..
Programmers / 멀쩡한 사각형 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 멀쩡한 사각형 (2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/62048 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 멀쩡한 사각형 문제 설명 가로 길이가 Wcm, 세로 길이가 Hcm인 직사각형 종이가 있습니다. 종이에는 가로, 세로 방향과 평행하게 격자 형태로 선이 그어져 있으며, 모든 격자칸은 1cm x 1cm 크기입니다. 이 종이를 격자 선을 따라 1cm × 1cm의 정사각형으로 잘라 사용할 예정이었는데, 누군가가 이..
Programmers / 숫자 블록 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 숫자 블록(2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/12923 숫자 블록 문제 설명 그렙시에는 0으로 된 도로에 숫자 블록을 설치하기로 하였습니다. 숫자 블록의 규칙은 다음과 같습니다. 블록의 번호가 n 일 때, 가장 처음 블록은 n * 2번째 위치에 설치합니다. 그다음은 n * 3, 그다음은 n * 4, ...로 진행합니다.만약 기존에 블록이 깔려있는 자리라면 그 블록을빼고 새로운 블록으로 집어넣습니다. 예를 들어 1번 블록은 2,3,4,5, ... 인 위치에 우선 설치합니다. 그다음 2번 블록은 4,6,8,10, ... 인 위치에 설치하고, 3번 블록은 6,9,12..
Programmers / 하노이의 탑 / Python 파이썬
·
coding test - python/Programmers
*문제 출처는 프로그래머스에 있습니다. 문제 제목: 하노이의 탑 (2단계) 문제 사이트: https://school.programmers.co.kr/learn/courses/30/lessons/12946 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 이 글은 모두의 알고리즘 도서를 참고하여 작성한 게시글입니다. 사진의 저작권은 모두 모두의 알고리즘 출판사 길벗에 있음을 알립니다. 하노이의 탑 규칙 크기가 다른 원반 n개를 출발점 기둥에서 도착점 기둥으로 전부 옮겨야 합니다. • 원반은 한 번에 한 개씩만 옮길 수 있습니다. • 원반을 옮길 때는 한 기둥의..
Programmers / 실패율 / Python 파이썬
·
coding test - python/Programmers
보호되어 있는 글입니다.
[Data Science from Scratch] Chapter 17. Decision Tree
·
공부정리/Data Science
보호되어 있는 글입니다.
[핵심 머신러닝] Boosting
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=GciPwN2cde4&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=10 Boosting 알고리즘 종류 Adaptive boosting (Adaboost) Gradient boosting machines (GBM) XGboost Light gradient boost machines (Light GBM) Catboost AdaBoost 각 단계에서 새로운 base learner를 학습하여 이전 단계의 base learner의 단점을 보완 Training error ..
[핵심 머신러닝] 뉴럴네트워크모델 2 (Backpropagation 알고리즘)
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=8300noBbCRU&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=27 [핵심 머신러닝 ] 뉴럴네트워크모델 2 (Backpropagation 알고리즘) 연속형일 때 실제 y값: t, 모델로 부터 나온 y 값: o K번째 노드 -> 은닉노드들의 선형 결합을 시그모이드 함수로 합성하여 나타냄 계산 과정 ** 우리는 w를 계속해서 경사하강법으로 w를 업데이트 할 것이다. 따라서 뒤에서 빼주면서 업데이트 하는 것을 알아야함 net(k)를 미분하면 어떻게 될까? 그러면 ..
[핵심 머신러닝]뉴럴네트워크모델 1 (구조, 비용함수, 경사하강법)
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=YIgLpsJ-1J4&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=28 [핵심 머신러닝 ]뉴럴네트워크모델 1 (구조, 비용함수, 경사하강법) 로지스틱회귀는 계수가 들어오면 선형 결합을 통해 비선형으로 변환된다. 퍼셉트론 로지스틱회귀와 비슷한데 훨신 더 간단한 모델입니다. 입력 값에 선형 결합을 구하고, 그 값이 0보다 큰지 아닌지를 분류함 실제 입력값이 들어오면 0보다 큰지 작은지를 본다. 단층 퍼셉트론으로는 모든 문제를 풀 수 없다. OR 게이트 둘 중 하나만..
[핵심 머신러닝] 랜덤포레스트 모델
·
공부정리/Deep learnig & Machine learning
이 게시글은 김성범 교수님의 유튜브 강의를 정리한 내용입니다. 내용과 사진의 각 출처는 김성범 교수님께 있음을 미리 알립니다. 해당 게시글 강의 영상: https://www.youtube.com/watch?v=lIT5-piVtRw&list=PLpIPLT0Pf7IoTxTCi2MEQ94MZnHaxrP0j&index=21 [핵심 머신러닝] 랜덤포레스트 모델 지난시간 의사결정나무에 대해서 살펴보면서 개별트리에는 단점이 존재한다는 사실을 알았다. 랜덤 포레스트 배경 - 앙상블 여러 base 모델들의 예측을 다수결 법칙 또는 평균을 이용해 통합하여 예측 정확성을 향상시키는 방법 다음 조건을 만족할 때 앙상블 모델은 Base 모델보다 우수한 성능을 보여준다. Base 모델들이 서로 독립적 Base 모델들이 무작위 예..