728x90

분류 전체보기 75

[논문리뷰] 하버드생은 어떤 식으로 논문을 읽는가?

연구 논문을 읽는 방법이번 학기 후반부에 연구 논문을 작성하는 방법에 대해 논의할 예정입니다. 우선, 연구 논문을 읽는 방법에 대해 다뤄보겠습니다. 이 논의는 논문을 주의 깊게 읽어야 하는 이유가 있다는 전제하에 진행됩니다. 예를 들어, 과제로 논문이 주어졌다면 이는 읽어야 할 충분한 이유입니다. 또한, 논문을 검토해야 하거나, 자신의 연구와 관련이 있다면 주의 깊게 읽어야 합니다. 나중에는 논문을 대충 훑어보는 방법도 논의할 것입니다.역시 초반에는 왜 논문을 보는 지에 대한 일반적인 설명으로 시작합니다. 이후 총 5가지의 가이드를 설명하면서 내용을 진행합니다.1. 비판적으로 읽기: 연구 논문을 읽는 과정은 비판적인 과정이어야 합니다. 저자들이 항상 옳다고 가정해서는 안 됩니다. 대신 의심을 가지고 읽어..

Learn 2024.06.27

[논문리뷰] 이해가 안되는 논문 해결 법 : 묻고 더블로 가

1. 서론연구자들은 여러 가지 이유로 논문을 읽어야 하는 데, 그 이유는 다양합니다. 하지만 논문을 효율적으로 읽는 기술은 거의 교육하지 않고 개인 랩실에서 시도와 실패를 통해 이 기술을 배우게 되는데 이를 해결하기 위해 Keshav는 3단계 접근법을 소개하고 있습니다.2. 3단계 접근법이 논문에서는 3단계 접근법으로 논문을 처음부터 끝까지 한 번에 읽는 대신, 세 번에 걸쳐 읽는 것을 목표로 합니다.  2.1 첫 번째 단계첫 번째 단계는 논문을 빠르게 스캔하여 전체적인 개요를 파악하는 것입니다. 이 단계는 약 5-10분 정도 소요되며 다음과 같은 단계를 포함합니다:제목, 초록, 도입 부분을 주의 깊게 읽습니다.섹션 및 하위 섹션 제목을 읽습니다.결론 부분을 읽습니다.참고 문헌을 훑어보고 이미 읽은 논문..

Learn 2024.06.26

간단하고 개발자 친화적인 캥거루 스킨 사용기

포스트 요약: 캥거루 스킨은 간단하고 필요한 기능만을 담고 있어, 개발자 친화적이며 사용하기 쉽습니다. 이번 포스트에서는 캥거루 스킨을 사용하게 된 이유와 제작자에게 고마움을 전하고자 합니다.1. 캥거루 스킨을 선택한 이유최근 티스토리 블로그 스킨을 찾던 중, 간단하고 개발자 친화적인 스킨을 원하게 되었습니다. 여러 스킨을 비교해본 결과, 캥거루 스킨이 가장 적합하다고 판단했습니다. 2. 캥거루 스킨의 장점캥거루 스킨은 심플하고 필요한 부분으로만 구성되어 있습니다. 덕분에 블로그 운영이 훨씬 수월해졌습니다. 특히, 다음과 같은 이유로 만족스러웠습니다:캥거루 스타일 예시 : https://dev-roo.tistory.com/entry/dev-roo-style간단한 설치 및 설정: 불필요한 복잡한 과정 없이..

etc 2024.06.26

[데이터처리와분석] GMM EM Algorithm

[데이터처리와분석] GMM EM Algorithm요약¶unsupervised classification 문제를 풀 때, 각 포인트를 특정 가우시안 분포에 속하도록 만들고 싶다. 이것이 GMM처음에는 특정 가우시안 분포(평균, 분산)을 랜덤으로 잡고 각 포인트에 레이블을 준다 (초기화)레이블 된 포인트으로 다시 가우신안 분포의 평균, 분산을 구해서 다시 레이블링한다. (반복, E step, M step)그러면 결국 레이블을 잘 구분할 수 있는 것이다. -> 수렴 영상은 참고자료에서 볼 수 있다.========이 코드는 기대 최대화(Expectation-Maximization, EM) 알고리즘을 사용하여 가우시안 혼합 모델(Gaussian Mixture Model, GMM)의 매개변수를 추정하는 함수입니다...

Learn 2024.06.13

[데이터처리및분석] SVM 정리 및 실습

[데이터처리및분석] SVM 정리 및 실습¶SVM(Support Vector Machine)은 지도 학습(Supervised Learning) 알고리즘 중 하나로, 분류(Classification)와 회귀(Regression) 분석에 모두 사용됩니다. 특히, SVM은 이진 분류 문제에서 뛰어난 성능을 발휘하며, 고차원 데이터에서도 효과적으로 작동합니다.====SVM의 주요 개념¶1. 초평면(Hyperplane):¶SVM은 데이터를 구분하는 초평면을 찾습니다. 이 초평면은 고차원 공간에서 데이터 포인트를 두 개의 클래스(또는 다수의 클래스)로 나누는 경계선 역할을 합니다.이 초평면은 w⋅x+b=0의 형태를 가지며, 여기서 w는 가중치 벡터, x는 데이터 포인트, b는 절편입니다.2. 서포트 벡터(Suppor..

Learn 2024.06.13

[컴퓨터비전] Fast-RCNN

서론이 포스트는 R-CNN을 어느정도 알고 있다고 가정하고 작성된 내용입니다.이전 R-CNN은 총 3개의 문제점이 있다.two-stage 문제학습에 공간이랑 시간이 많이 들어간다객체 탐지 자체가 느리다.여기서 c번의 문제를 Spatial Pyramid Pooling이라는 것을 통해서 정해진 사진의 크기에 상관없이 구분을 할 수 있도록 해준다.따라서 이 포스트에서는 SPPNet, Fast-RCNN에 대해서 정리해보고자 한다.본론크게 달라진 점은 2개이다. ROI pooling, Multi-task LossFast-RCNN이 R-CNN과 제일 큰 차이점이라면 원본 사진에서 feature map을 만들 때, 한번에 한다는 것이다.이것에 관해서 꽤 헷갈렸는데, Conv와 Selective Search의 순서가 ..

Learn 2024.06.13

[데이터처리와 분석] K-Mean 실습 및 확인

[데이터처리와 분석] K-MeanK-means는 비지도 학습(Unsupervised Learning) 알고리즘 중 하나로, 주로 데이터 군집화(Clustering)를 수행하는 데 사용됩니다. 이 알고리즘의 목적은 데이터를 K개의 군집으로 나누고, 각 군집 내의 데이터 포인트가 군집의 중심에서 가능한 한 가까운 위치에 있도록 하는 것입니다.1. K-means 알고리즘의 주요 단계¶1-1. 초기화:¶군집의 수 K를 설정합니다.데이터셋에서 무작위로 K개의 중심(centroids)을 초기화합니다.1-2. 군집 할당:¶각 데이터 포인트를 가장 가까운 중심(centroid)에 할당하여 K개의 군집을 형성합니다. 이는 각 데이터 포인트와 각 중심 사이의 거리를 계산하고, 가장 가까운 중심에 데이터 포인트를 할당함으로..

Learn 2024.06.13

[컴퓨터비전] R-CNN

서론Detection분야에서 DNN이 나오기 이전에 마지막까지 사용되었던 모델이다.R-CNN은 Region Based Convolutional Neural Networks : 2013이 전체 이름이다.이 부분은 DNN 이전의 기술 및 생각들을 정리하기 참 좋은 모델이라고 생각한다.왜냐하면 이해하기 힘든 최신 논문에 비하면 이 논문은 굉장히 인간적이고 필자가 이해할 수 있는 고민들을 공감할 수 있게 되면서 여러 개념이 정리된 좋은 개념이였다.본론이 모델은 크게 2가지로 구성되어 있다. 1) 사진에서 어디에 객체가 있는 지확인하는 Extract Region proposal, 2) 객체가 있을 법한 곳에서 이게 무슨 객체인지 분류하는 Classify RegionDNN을 먼저 공부하고 이걸 보면 대부분 End ..

Learn 2024.06.13

[머신러닝] Optimizer(SGD+M, AdaGrad, RMSProp, Adam, AdamW)

서론학습하는 방법에 대해서 앞으로 계속 사용하게 될 것이기에 이번 기회에 정리를 해두려고 한다.들어가기에 앞서 Optimizer는 목표를 최대화, 최소화하는 해를 찾는 과정이다.이 포스트는 최소 SGD와 그를 받침하는 개념에 대해 알고 있다고 가정하고 작성하겠습니다.SGD w, Adagrad, RMSProp, Adam, AdamW 에 대해서 알아볼 예정이고 이들은 합쳐지거나 부족한 점을 채운 것들이 많아서 앞의 몇개를 습득하면 뒤의 내용은 그렇게 어렵지 않다.특히 이름만 봐도 알 수 있는 것들이 많다.본론다양한 종류가 있는데, 그 중에서 가장 기초가 되는 Stochastic gradient descent + momentum은 이 글의 포스트에도 나와있으므로 짧게 설명하자면 기존의 값을 이용해서 좀 더 빠..

Learn 2024.06.12

[데이터처리와분석] 데이터 준비하기

개요¶1. ML을 위한 첫 데이터를 다운받고 데이터에 대해서 확인해보는 과정¶2. 사용 메소드(전처리)¶read_csv(파일,인코딩)train_set.copy()df_copy.corr()train_x = train_set.drop(["Salary"], axis=1), train_y = df_copy["Salary"]train_set, test_set = train_test_split(df, test_size=0.2, random_state=42)3. 사용 메소드(학습)¶LinearRegression()lin_reg.fit(train_x, train_y)lin_reg.predict(train_x)4. 사용 메소드(Plot)¶df_copy.plot.scatter(x='YearsExperience', y='S..

Learn 2024.06.12
728x90