분류 전체보기 29

컴퓨터 비전에는 어떤 Task가 있을까?

인공지능 분야인공지능 분야 안에도 머신러닝, 딥러닝뿐만 아니라자연어처리, 음성인식, 로보틱스, 컴퓨터 비전 등 다양한 분야가 있습니다. 머신러닝과 딥러닝은 이미 아실 것이라는 가정 하에 다른 분야들을 매우 간결하게 이해하자면,자연어처리는 말 그대로 자연어(텍스트)를 처리하는 Task들을 수행하는 기법이고,컴퓨터 비전은 Vision이라는 말대로, 시각적으로 보이는 것을 다루는 영역입니다.요즘은 멀티모달이라고, 다양한 데이터셋을 합쳐서 Task를 수행하기도 합니다.예를 들면, 이미지를 주고 텍스트로 이미지에 대해 요약해달라고도 하고, 텍스트로 이미지를 생성해달라고도 하면 해줍니다. 저희에게 밀접하게 느껴지는 ChatGPT가 그런 역할을 요즘 해주고 있죠. 멀티모달은 현재 핫한 연구 분야입니다.하지만, 본 포..

[논문 리뷰] Meta의 Neural Prophet, NeuralProphet: Explainable Forecasting at Scale

[2111.15397] NeuralProphet: Explainable Forecasting at Scale  NeuralProphet: Explainable Forecasting at ScaleWe introduce NeuralProphet, a successor to Facebook Prophet, which set an industry standard for explainable, scalable, and user-friendly forecasting frameworks. With the proliferation of time series data, explainable forecasting remains a challenging taskarxiv.org 오늘 다룰 논문은 Meta에서 공개한 Ner..

논문 리뷰 2025.03.12

[논문리뷰]AR-Net: A simple Auto-Regressive Neural Network for time-series(2019)

[1911.12436] AR-Net: A simple Auto-Regressive Neural Network for time-series AR-Net: A simple Auto-Regressive Neural Network for time-seriesIn this paper we present a new framework for time-series modeling that combines the best of traditional statistical models and neural networks. We focus on time-series with long-range dependencies, needed for monitoring fine granularity data (e.g. minutes,ar..

논문 리뷰 2025.03.03

데이터 전처리 - Feature Engineering

NULL 값이 데이터에 포함되어 있어서 코드 에러가 발생한 적 없으신가요?이러면 NULL을 모두 제거해야할까요?? 또는 데이터 형태는 문제가 없는데 학습시에 정확도가 낮거나 아예 학습이 되지 않은 것 같은 경우 없으셨나요??이 경우, 데이터가 학습시키기에 적합하지 않은 상태일 수 있습니다. 데이터를 학습하는 머신러닝/딥러닝의 다양한 학습에서는 데이터를 잘 가공하는 것은 매우 중요한 작업니다.그렇다면 어떻게 가공해야할까요? 데이터를 전처리하는 방법은 다양합니다.오늘은 시도해볼 수 있는 다양한 기법들을 다루어보고자 합니다이 때, 언제 해당 기법을 사용하면 좋을지에 대한 insight를 발견하시길 바랍니다~!!기법설명유용한 곳결측치 처리데이터가 누락된 부분을 평균, 특정값 등으로 채우는 기법데이터 누락으로 인..

머신러닝 핵심 라이브러리

머신러닝 학습 코드를 구현하고 시각화할때 많이 사용하고 들어본 라이브러리들에는 무엇이 있나요?Numpy, Pandas, Sklearn,Matplotlib, Seaborn에 대해 자주 들어보셨을 것입니다. 참고로, 딥러닝 분야에서는 Tensorflow, Pytorch, Keras를 많이 사용하며, 오늘은 머신러닝을 수행할 때 유용한 라이브러리를 정리하고자합니다.  아래는 머신러닝에서 사용하는 라이브러리입니다.러이브러리설명넘파이=Numpy다차원 배열에 대한 빠른 처리를 지원하는 라이브러리(판다스에 비해 사람 눈에는 다소 읽기 불편하지만 메모리가 덜 들고 계산도 더 빠르다)판다스=Pandas넘파이 기반으로 구현한 라이브러리. 인간 친화적인 자료구조를 제공해 데이터를 넘파이보다 쉽게 읽고 변형이 가능하다사이킷런..

[논문 리뷰] LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation

논문 제목: LightGCN: Simplifying and Powering Graph Convolution Network for RecommendationLightGCN: Simplifying and Powering Graph Convolution Network for... LightGCN: Simplifying and Powering Graph Convolution Network for RecommendationGraph Convolution Network (GCN) has become new state-of-the-art for collaborative filtering. Nevertheless, the reasons of its effectiveness for recommendation are no..

논문 리뷰 2024.08.30

[논문 리뷰] Finetuned Language Models Are Zero-Shot Learners

Finetuned Language Models Are Zero-Shot Learners Finetuned Language Models Are Zero-Shot LearnersThis paper explores a simple method for improving the zero-shot learning abilities of language models. We show that instruction tuning -- finetuning language models on a collection of tasks described via instructions -- substantially improves zero-shot perarxiv.org 제안 모델: FLAN배경선행 모델의 문제점제안 모델: 선행 문제..

논문 리뷰 2024.08.30

[논문 리뷰] BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer

논문 제목: BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from TransformerBERT4Rec: Sequential Recommendation with Bidirectional Encoder... BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from TransformerModeling users' dynamic and evolving preferences from their historical behaviors is challenging and crucial for recommendation systems...

논문 리뷰 2024.08.05

[논문 리뷰] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

논문 제목: An Image is Worth 16x16 Words: Transformers for Image Recognition at ScaleAn Image is Worth 16x16 Words: Transformers for Image Recognition at Scale An Image is Worth 16x16 Words: Transformers for Image Recognition at ScaleWhile the Transformer architecture has become the de-facto standard for natural language processing tasks, its applications to computer vision remain limited. In vision..

논문 리뷰 2024.07.19