전체 글9 Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks 논문 리뷰 https://arxiv.org/abs/2005.11401 Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks Large pre-trained language models have been shown to store factual knowledge in their parameters, and achieve state-of-the-art results when fine-tuned on downstream NLP tasks. However, their ability to access and precisely manipulate knowledge is still lim arxiv.org Aleksandra Piktus , Fabio Petroni.. 2024. 4. 11. DiffusionCLIP 논문 리뷰 DiffusionCLIP: Text-Guided Diffusion Models for Robust Image Manipulation 2022년에 나온 diffusionCLIP 논문 https://arxiv.org/abs/2110.02711 DiffusionCLIP: Text-Guided Diffusion Models for Robust Image Manipulation Recently, GAN inversion methods combined with Contrastive Language-Image Pretraining (CLIP) enables zero-shot image manipulation guided by text prompts. However, their applications to divers.. 2024. 4. 4. Byzantine Fault(비잔틴 장애) 분산환경 배경 싱글 컴퓨터로는 성능의 향상에 있어 제한이 있기에 복잡한 연산을 여러 컴퓨터가 나눠서 수행한다 하나의 컴퓨터가 망가지더라도, 나머지 컴퓨터가 맡아서 처리할 수 있어야 하기에 분산환경이 등장하게 된다 여러 컴퓨터가 하나의 시스템처럼 동작하려면, 누구 하나 어긋함 없이 하나의 상태를 가져야 하며, 이러한 문제를 해결하기 위해 분산 환경에서 상태를 공유하는 알고리즘이 등장하게 된다 (Consensus Algorithm) FLP Impassibility 비동기 네트워크 내에서는 Safety와 Liveness를 모두 완벽히 만족하는 합의 알고리즘을 설계하는 것이 불가능하며,이는 FLP Impassibility에서 증명되었다 (즉, 비동기 네트워크에서는 합의 문제를 완벽히 해결할 수 있는 분산 알고리.. 2024. 2. 7. Convolutional neural network(CNN) 합성곱 신경망은 이미지 인식과 음성 인식 등에 사용된다. CNN 전체 구조 새롭게 등장하는 개념 : 합성곱 계층, 풀링 계층 지금까지의 신경망 인접하는 계층의 모든 뉴런과 결합되어 있었다 => 완전연결 이렇게 완전히 연결된 계층은 Affine 계층이란 이름으로 구현함 완전 연결 신경망은 Affine 계층 뒤에 활성화 함수를 갖는 ReLU 계층 (or Sigmoid 계층)이 이어진다. 위 그림에서는 Affine-ReLU 조합이 2층이 쌓였고 마지막 3번째 층은 Affine 계층에 이어 소프트맥지 계층에서 최종결과를 출력한다. CNN은 새롭게 합성곱 계층과 풀링 계층이 추가된다. CNN 계층은 Conv-ReLU-(Pooling) 흐름으로 연결된다. ( 풀림 계층은 생략될 수 있음) CNN 계층은 가까운 층에.. 2023. 11. 9. 이전 1 2 3 다음