분류 전체보기

알고리즘/백준 (자료구조)

[Silver 4] [Java] 스택 (10828번)

문제 정수를 저장하는 스택을 구현한 다음, 입력으로 주어지는 명령을 처리하는 프로그램을 작성하시오. 명령은 총 다섯 가지이다. push X: 정수 X를 스택에 넣는 연산이다. pop: 스택에서 가장 위에 있는 정수를 빼고, 그 수를 출력한다. 만약 스택에 들어있는 정수가 없는 경우에는 -1을 출력한다. size: 스택에 들어있는 정수의 개수를 출력한다. empty: 스택이 비어있으면 1, 아니면 0을 출력한다. top: 스택의 가장 위에 있는 정수를 출력한다. 만약 스택에 들어있는 정수가 없는 경우에는 -1을 출력한다. 입력 첫째 줄에 주어지는 명령의 수 N (1 ≤ N ≤ 10,000)이 주어진다. 둘째 줄부터 N개의 줄에는 명령이 하나씩 주어진다. 주어지는 정수는 1보다 크거나 같고, 100,000보..

Elasticsearch

Elasticsearch Node

Elasticsearch Node? 엘라스틱서치 클러스터를 운영하기 위해 다수의 물리 서버에 엘라스틱서치를 설치하고 실행하게 되는데, 이때 실행된 엘라스틱서치 인스턴스를 노드라고 한다. 즉, 물리적으로 실행된 런타임 상태를 나타낸다. 엘라스틱서치의 경우에는 다수의 서버로 분산해서 처리하는 것이 가능하기 때문에 대용량 데이터를 처리할 수 있다. 분산 처리를 위해서는 다양한 형태의 노드들을 조합해서 클러스터를 구성해야 한다. 엘라스틱서치는 각 설정에 따라 4가지 유형의 노드를 제공한다. 노드의 상태를 원하는 상태로 변경하고 싶다면 엘라스틱 서치 서버의 config 폴더 안의 elasicsearch.yml 파일을 열어 설정할 수 있다. 설정 방법은 각 노드의 종류를 설명하면서 작성해보겠습니다. 1. 마스터 노..

Elasticsearch

Elasticsearch에 대해서

Elasticsearch 란? 루씬(Lucene) 기반의 Java 오픈소스 분산 검색 엔진입니다. 모든 유형의 데이터에 대해 준실시간에 가까운 검색 및 분석을 제공합니다. 엘라스틱 서치는 Logstash, Kibana와 함께 사용되면서 ELK Stack이라고 널리 알려져 있습니다. Kibana(키바나) - 엘라스틱 서치에서 제공하는 데이터 시각화 프로그램 Logstash(로그 스태시) - 다양한 소스로부터 데이터를 수집하고 전환하여 원하는 대상에 전송할 수 있도록 하는 경량의 오픈 소스 서버 측 데이터 처리 파이프라인 Elasticsearch 장점 1. 오픈소스 검색엔진 - 엘라스틱서치는 아파치 재단의 루씬(Lucene)을 기반으로 개발된 오픈소스 검색엔진이다. 따라서 버그가 발생할 경우에도 대부분 빠르..

Kafka

Spring Boot를 활용한 카프카 애플리케이션 개발

이번 포스트에서는 Spring Boot를 이용해 간단하게 Kafka producer와 Kafka Consumer를 이용할 수 있는 kafka application을 개발해 보겠습니다. 기본 개발 환경 1. 의존성 & 패키지 추가 Kafka Producer & Consumer를 구현하기 위해서는 아파치 카프카 라이브러리를 프로젝트에 추가해야 합니다. 아파치 카프카 라이브러리는 mvnrepository 접속하시면 spring-kafka로 바로 접속 가능하십니다. 저 같은 경우는 2.8.0 버전의 spring-kafka 라이브러리를 이용하겠습니다. 만들 클래스는 Controller, Producer, Consumer 이 3가지이기 때문에 분리하기 위한 패키지 구조는 아래와 같이 잡아보았습니다. 2. yml 파..

Kafka

Kafka 명령어

이번 포스트에서는 명령어를 통해 토픽을 생성, 수정하여 데이터를 전송(Producer)하고 받을 수(Consumer) 있는 명령어들을 살펴보겠습니다. 카프카의 명령어들은 관련 애플리케이션을 개발하고 클러스터를 운영할 때 자주 쓰이기 때문에 명령어를 손에 익혀두면 좋을것입니다. 1. Kafka-topics.sh Topic과 관련된 명령어를 실행합니다. Tip! 토픽을 생성하는 2가지 방법 1) Kafka Consumer 또는 Kafka Producer가 Kafka Broker에 생성되지 않은 토픽에 대해 데이터를 요청할 경우 2) 커맨드 라인 툴로 명시적으로 토픽을 생성하는 경우 토픽을 효과적으로 유지보수 하기 위해서는 2번 방법을 추천 -> 토픽마다 처리되어야 하는 데이터의 특성이 다르기 때문에 1) 토..

Kafka

로컬 환경에서 Kafka 구축하기

이번 글에서는 로컬에서 Docker를 이용해 Kafka 서버를 구축해보겠습니다. 1. Docker Image 다운받기 Cli 환경에서 docker search를 하거나 Docker Hub을 통해서 직접 kafka Image를 찾아볼 수 있는데 wurstmeister/kafka가 가장 별을 많이 받아있네요. 해당 이미지로 Docker Image를 받아보겠습니다. 2. Pre-Requisites Docker Hub에서 해당 이미지(wurstmeister/kafka)에 접속해보시면 사전 준비가 필요하다고 작성되어있습니다. Kafka를 실행하기 위해서는 항상 Zookeeper가 띄어져 있는 상태여야 합니다. 그렇기 때문에 docker-compose.yml 파일을 하나 만들어서 한 번에 실행시키는 방법을 추천드립..

HeshAlgo
'분류 전체보기' 카테고리의 글 목록 (5 Page)