일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 딥러닝
- CNN
- r-cnn
- machine learning
- 백준
- BFS
- two-stage detector
- dfs
- AlexNet
- image processing
- One-Stage Detector
- MinHeap
- Reinforcement Learning
- DP
- eecs 498
- canny edge detection
- YoLO
- 머신러닝
- C++
- Python
- deep learning
- real-time object detection
- object detection
- opencv
- 강화학습
- dynamic programming
- MySQL
- Mask Processing
- LSTM
- 그래프 이론
- Today
- Total
목록전체 글 (147)
JINWOOJUNG

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/9 K-armed Bandit(2) 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. 이전 포스팅 ht jinwoo-jung.tistory.com Preview 지난 강의를 바탕으로 강화학습의 목표는 total reward의 sum을 maximi..

접근법 최소 비교 횟수를 구하기 위해서는 입력받은 묶음의 크기를 정렬한 후 작은 2개의 묶음의 크기부터 더해나가서 계산할 수 있다. 따라서 양쪽으로 입출력이 가능한 deque 자료구조를 사용하여 구현하였다. from collections import deque N = int(input()) tmp = [] for i in range(N): tmp.append(int(input())) tmp.sort() queue = deque() for i in range(N): queue.append(tmp[i]) result = 0 for _ in range(1,N): a = queue.popleft() b = queue.popleft() result += a+b queue.appendleft(a+b) print(r..

접근법 기본적인 아이디어는 DFS를 생각했고, 여기서 특이점은 R,G를 동일하게 인식해야 한다는 점이다. 따라서 DFS를 적용할 때 B가 아닌 위치를 다른 배열에 체크해 둔 후, 해당 배열에 한번 더 DFS를 적용하여 적록색약인 경우에 구역의 수를 계산 하였다. 정답 import sys sys.setrecursionlimit(10**9) dx = [0,0,-1,1] dy = [-1,1,0,0] N = int(input()) def dfs(x,y,color): image[y][x] = 0 if color != "B": check[y][x] = 1 for i in range(4): X = x + dx[i] Y = y + dy[i] if(0

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/8 K-armed Bandit(1) 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. K-armed Bandit 강 jinwoo-jung.tistory.com Upper Confidence Bounds(UCB) UCB Algorithm은 pot..

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Before This Episode https://jinwoo-jung.tistory.com/7 Reinforcement Learning 본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Reinforcement Learn jinwoo-jung.tistory.com K-armed Bandit 강화학습 알고리즘의 알 종류인 K-armed..

본 게시글은 인하대학교 유상조 교수님의 Reinforcement Learning Tutorial Seminar 수강 후 정리를 위한 포스팅입니다. 모든 포스팅의 저작관은 유상조 교수님에게 있음을 사전 공지합니다. Reinforcement Learning 강화학습은 Machine Learning의 subfield이다. Machine Learning Tasks로는 크게 Supervised/Unsupervised/Reinforcement learning으로 분류할 수 있다. Supervised Learning(지도학습) : labeled dataset으로 학습이 진행되며, classification/regression task에 사용된다. Unsupervised Learning(비지도 학습) : label이 ..

접근법 처음에는 배추가 심어진 것을 표현하기 위한 MxN Matrix와 해당 위치에 방문한 것을 확인하기 위한 추가적인 배열을 생성해 푸는 방향으로 접근하였다. 하지만 위 방법으로 접근하면 무수히 많은 if문과 필요한 배추흰지렁이마리수 즉, 1이 상/하/좌/우로 붙어져 있는 경우 count를 하기에 매우 비효율적이다. 따라서 주변에 배추가 심어져 있는지 확인하는 함수를 추가적으로 생성 후 해당 함수 실행 시 count를 한다. 해당 함수 내에서는 상하좌우의 위치에 접근하여 1인지 확인 후 1이면은 0으로 바꾸는 방식으로 인접 배추들에 대한 방문을 확인하여, dfs 방식으로 접근하다. 정답 import sys sys.setrecursionlimit(10000) def check(x,y): dx = [0,0..

접근법 Array를 이용한 BST를 만들어서 접근하려고 했지만, 너무 과하고 시간이 문제여서 Binary Search를 유사하게 구현해서 접근하기로 하였다. 정답 import sys import math N = int(input()) inputs = list(map(int,sys.stdin.readline().split(" "))) inputs.sort() M = int(input()) array = list(map(int,sys.stdin.readline().split(" "))) for i in range(0,M): L = 0 R = N-1 flag = False while L inputs[mid]): L = mid if(array[i] > inputs[R]):break else: R = mid-1 ..