일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- Mask Processing
- 백준
- real-time object detection
- LSTM
- DP
- Reinforcement Learning
- hm3dsem
- NLP
- 딥러닝
- CNN
- YoLO
- ubuntu
- dfs
- r-cnn
- opencv
- AlexNet
- two-stage detector
- hm3d
- 강화학습
- 그래프 이론
- C++
- 머신러닝
- deep learning
- MySQL
- image processing
- BFS
- machine learning
- eecs 498
- Python
- dynamic programming
- Today
- Total
목록분류 전체보기 (164)
JINWOOJUNG

접근법 다른 두 수의 합으로 특정 수를 나타내는지를 확인하기 위해서는 특정 수 보다 작은 두 수를 선택해야 하기에 정렬이 필요하다. 또한, 이중 for문으로 직접 접근하기에는 두 수를 찾기 위한 while문이 추가적으로 필요하여 $O(n^3)$ 시간복잡도가 발생한다. 따라서 $nlogn$의 알고리즘이 필요하기에 quick sort에서 활용한 방식처럼 pointer를 이용하여 접근하였으며, 0과 자기자신이 더해져 다른 위치의 자기자신을 나타내는 예외사항을 처리하도록 노력하였다. 정답 import sys N = int(input()) arr = list(map(int,sys.stdin.readline().split(" "))) arr.sort() cnt = 0 for i in range(N): tmp = a..

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/9 K-armed Bandit(2) 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. 이전 포스팅 ht jinwoo-jung.tistory.com Preview 지난 강의를 바탕으로 강화학습의 목표는 total reward의 sum을 maximi..

접근법 최소 비교 횟수를 구하기 위해서는 입력받은 묶음의 크기를 정렬한 후 작은 2개의 묶음의 크기부터 더해나가서 계산할 수 있다. 따라서 양쪽으로 입출력이 가능한 deque 자료구조를 사용하여 구현하였다. from collections import deque N = int(input()) tmp = [] for i in range(N): tmp.append(int(input())) tmp.sort() queue = deque() for i in range(N): queue.append(tmp[i]) result = 0 for _ in range(1,N): a = queue.popleft() b = queue.popleft() result += a+b queue.appendleft(a+b) print(r..

접근법 기본적인 아이디어는 DFS를 생각했고, 여기서 특이점은 R,G를 동일하게 인식해야 한다는 점이다. 따라서 DFS를 적용할 때 B가 아닌 위치를 다른 배열에 체크해 둔 후, 해당 배열에 한번 더 DFS를 적용하여 적록색약인 경우에 구역의 수를 계산 하였다. 정답 import sys sys.setrecursionlimit(10**9) dx = [0,0,-1,1] dy = [-1,1,0,0] N = int(input()) def dfs(x,y,color): image[y][x] = 0 if color != "B": check[y][x] = 1 for i in range(4): X = x + dx[i] Y = y + dy[i] if(0

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/8 K-armed Bandit(1) 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. K-armed Bandit 강 jinwoo-jung.tistory.com Upper Confidence Bounds(UCB) UCB Algorithm은 pot..

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/7 Reinforcement Learning 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Reinforcement Learn jinwoo-jung.tistory.com K-armed Bandit 강화학습 알고리즘의 알 종류인 K-armed..

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Reinforcement Learning 강화학습은 Machine Learning의 subfield이다. Machine Learning Tasks로는 크게 Supervised/Unsupervised/Reinforcement learning으로 분류할 수 있다. Supervised Learning(지도학습) : labeled dataset으로 학습이 진행되며, classification/regression task에 사용된다. Unsupervised Learning(비지도 학습) : label이 ..

접근법 처음에는 배추가 심어진 것을 표현하기 위한 MxN Matrix와 해당 위치에 방문한 것을 확인하기 위한 추가적인 배열을 생성해 푸는 방향으로 접근하였다. 하지만 위 방법으로 접근하면 무수히 많은 if문과 필요한 배추흰지렁이마리수 즉, 1이 상/하/좌/우로 붙어져 있는 경우 count를 하기에 매우 비효율적이다. 따라서 주변에 배추가 심어져 있는지 확인하는 함수를 추가적으로 생성 후 해당 함수 실행 시 count를 한다. 해당 함수 내에서는 상하좌우의 위치에 접근하여 1인지 확인 후 1이면은 0으로 바꾸는 방식으로 인접 배추들에 대한 방문을 확인하여, dfs 방식으로 접근하다. 정답 import sys sys.setrecursionlimit(10000) def check(x,y): dx = [0,0..