전체 글 167

17779번 게리맨더링2

내 머리 속에 삼성 코테 = bfs + dfs + 빡구현이라서, 오히려 더 어렵게 돌아돌아 풀었다. 70분 정도 걸렸는데, 시험장 가면 떨려서 더 걸릴텐데 벌써 걱정된다. 힝;ㅜ 컴공이 아닌 걸 극복하려고 문제를 무작정 많이 푸는 스타일이지, 엄청 효율적으로 사고하는 편이 아니다. 그래서 구현같은 경우는 주어진 순서를 따라서 차근차근 하나하나씩 함수를 짠다. 내 코드 choice standard 라는 4중 포문으로 기준점 x,y와 길이 d1,d2를 선택한 다음, color_five 함수로 경계선을 -1로 체크해주었다. 그 다음 왼쪽, 오른쪽을 나눠서 divide 함수를 통해서 1,2,3,4 구역별로 정해주었다. 마지막으로 color_inner이라는 bfs문을 돌면서 경계선 혹은 경계선 내부면 5로 체크를..

C++ 사다리 조작

www.acmicpc.net/problem/15684 15684번: 사다리 조작 사다리 게임은 N개의 세로선과 M개의 가로선으로 이루어져 있다. 인접한 세로선 사이에는 가로선을 놓을 수 있는데, 각각의 세로선마다 가로선을 놓을 수 있는 위치의 개수는 H이고, 모든 세로선 www.acmicpc.net I번 선수의 경로를 설정하는 것과 사다리를 선택하는 것과 헷갈려서 좀 시간이 걸린 문제 ㅜㅜ 코드 자체는 진짜 몇 줄 필요하지 않다. 1시간 20분정도 걸려서 다 풀고 신나는 마음으로 제출했는데,,, 틀렸다!!ㅜㅜ 아무리 봐도 완벽한데; 의심가는 부분은 DFS 부분 항상 1차원 VISITED 배열을 만들어서 DFS로 조합을 선택하는 건 잘하는데, 2차원으로 가면 응용이 안된다. 원래 내 코드는 DFS로 사다리..

[4/15] BERT 언어 모델 (2) + 나만의 BERT 만들기

- BERT 학습의 단계 1. Tokenizer 만들기 2. 데이터셋 확보 3. Next sentence prediction(NSP) 4. Masking - Domain-specific task의 경우 처음부터 직접 새로 학습하는 것이 성능이 더 좋다. 가장 중요한 것은 개인정보가 없는! 저작권 문제가 해결된! 데이터 셋을 사용해야 한다. 모델이 개인정보를 학습할 수가 있기 때문이다! 최근 이루다 이슈를 생각해보면 바로 느낌이 온다. 미국 전 대통령 오바마를 가지고 한 번 예시를 들어보자. 항상 tokenizer는 잘 되는지 확인 먼저! print(tokenizer('이순신은 조선 중기의 무신이다.')) {'input_ids': [101, 9638, 119064, 25387, 10892, 59906, 9..

Naver Ai Boostcamp 2021.04.16

백준 16236번 아기상어

알고리즘 포스팅 진짜 오랜만에 해보는 거 같다. 삼성 대학생 인턴에 서류합격해서 SW 역량테스트를 준비해야된다. 그런데 C++하다가 요새 파이썬만 하니까 C++도 까먹고 파이썬도 잘 알지는 못하는 그런 애매한 상황이 되어버렸다,,,! 그래서 포스팅하면서 새롭게 알게 된 점도 좀 정리를 하려고 포스팅을 다시 시작했다. www.acmicpc.net/problem/16236 16236번: 아기 상어 N×N 크기의 공간에 물고기 M마리와 아기 상어 1마리가 있다. 공간은 1×1 크기의 정사각형 칸으로 나누어져 있다. 한 칸에는 물고기가 최대 1마리 존재한다. 아기 상어와 물고기는 모두 크기를 가 www.acmicpc.net 문제를 읽자마자 최단 거리 -> BFS를 생각했다. BFS를 돌면서 가장 가까운 물고기의..

카테고리 없음 2021.04.15

[04/14] BERT 언어 모델 (1)

강의 정리 개인적으로 오늘 강의 정말 진국;; huggingface에서 제공하는 transforms 라이브러리가 너무 잘되어있어서 단! 3줄의 코드만으로도 bert를 가져와 쓸 수 있다고 한다. from transformers import AutoModel, AutoTokenizer model = AutoModel.from_pretrained("") tokenizer = AutoTokenizer.from_pretrained("") AutoTokenizer는 model-name에 맞는 tokenizer를 자동으로 불러와주는 역할을 하는 듯 하다. 대표적인 multilingual 모델인 bert-base-multilingual-cased는 BertTokenizerFast class로 되어있다. MODEL_N..

Naver Ai Boostcamp 2021.04.14

인공지능과 자연어처리 (1)

자연어 처리의 end-to-end를 확인하고 싶어 Pstage2는 KLUE를 선택했다. 해보고 적성에 맞으면 기계독해, 아니면 이미지 검출을 할 생각인데,,,,1일차의 느낌으로는 이미지 검출로 갈 거 같다..ㅎ Overview를 보고 대충 계획을 잡으려고 습관을 들이려는 중인데, NLP는 처음이니까 앞서나가기보다 교수님이 시키시는 거 꼬박꼬박하기로 마음먹었다. 5일차 TASK부터 시작하는 걸로 설계하셨다고 해서, 5일차 이전까지 다른 일 + 강의 마스터 이렇게 계획했다. 강의 요약 대부분의 자연어 처리는 '분류'의 문제다. (의미분석 , 구문 분석 ,감정 분석, 형태소 분석, 개체명 인식) 분류를 위해! N차원 위의 한 점으로 표현하기 위해! 자연어를 벡터화해야한다. word embedding => 동형..

Naver Ai Boostcamp 2021.04.13