일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- codility
- es test data
- Collectors.toMap
- 5amsung
- Draw.IO
- 코딩테스트
- ElasticSearch
- Elastic Stack
- AbsDistinct java
- AbsDistinct 풀이
- draw.io down
- es
- elasticsearch java
- java set
- mkdirs
- flow chart
- mkdir
- AbsDistinct
- 카드모으기 자바
- high level client
- Warnings
- analyze api
- java
- https warning
- collect
- ES Query
- ELK
- intervals
- low level client
- urllib3
- Today
- Total
목록분류 전체보기 (56)
5AMSUNG
구백글(900gle) 의 개발 환경을 es8 로 바꾸고 나서 부터 문제가 발생했다. 글은 오암성에 쓰지만 프로젝트는 스티브 스잡의 'aqqle' 에 코드반영.. high level client 의 버전은 7.17 버전이후 8버전이 알파상태라 써도 되나 .. 싶은.. 900gle 이 맛이 갔는데 이게 다 업데이트 때문이라는... es8.8.1 도 카피를 떳더니 충돌나서 데몬이 올라오지도 않고 암튼 ann 쿼리로 900gle 을 업데이트 하려고 했는데 이 쿼리가 es 8 부터 실행되는... 8.6 이상이였나.. 아무튼 7.15 를 8.8.1 로 업데이트 하니.. 끝.. (해결이 아닌 맛이감) 문제의 쿼리 { "query": { "match_all": {} }, "knn": { "field": "name_ve..
인텔리제이 업데이트 알림이 떳다 1년 10만원 넘게 주고 쓰는 툴이니 이왕이면 최신버전을 쓰자! 라고 생각하고 업데이트 했더니만.. 젠장.. 젠장.. Unsupported class file major version 61 자주보던 녀석이다. FAILURE: Build failed with an exception. * What went wrong: Failed to create Jar file /Users/doo/.gradle/caches/jars-8/c2940a550ee7ee1e25664053845218a0/bigdatatools-plugin-spark.jar. > Unsupported class file major version 61 자바 버전 이슈인데 저 플러그인 (bigdatatools-plugin..
스파크 설치 https://spark.apache.org/downloads.html 설치경로 & 압축 해제 원하는 위치에 파일을 복사하고 압축을 해제 cd /Users/doo/spark tar -xvf spark-3.4.1-bin-hadoop3.tgz mv spark-3.4.1-bin-hadoop3 spark-3.4.1 설정 spark 설정파일은 SPARK_HOME/conf cd $SPARK_HOME/conf cp spark-defaults.conf.template spark-defaults.conf cp spark-env.sh.template spark-env.sh cp log4j2.properties.template log4j2.properties 실행 cd $SPARK_HOME/ ./bin/pysp..
CloudWatch Logs Insights를 사용하면 Amazon CloudWatch Logs 내 로그 데이터를 대화식으로 검색해 분석할 수 있습니다. AWS 콘솔에서 좌측메뉴 Logs Insights 를 클릭해보자 이상한 것들이 나오고 로그 인사이트 화면 아래 SQL 문 같은 것을 입력하는 창에 SQL 문과 비슷하게 작성해 보자 로그 그룹을 지정하고 fields @timestamp, @message, @logStream, @log | filter @message like "could not be established. Broker may" | sort @timestamp asc | limit 10000 자세한 정보는 나중에 다시 작성 해야하고 대충 이런식으로 메시지를 검색해본다 그전에 날짜 지정 그리..
맥에다가 콘다로 가상환경을 만들고 바로 api 생성하려다가 gcc 어쩌고 이슈가 많아서 ubuntu 컨테이너 생성하고 다시 테스트 우분투 docker image 의 최신이 몇버전인지 확인하려면 아래에 접속해서 확인 https://hub.docker.com/_/ubuntu 도커 컨테이너 생성 docker run -i -t -d -p 6000:6000 --name symspell -v /Users/doo/symspell:/var/www/html ubuntu:latest /bin/bash docker run -i -t -d -p 6000:6000 --name symspell -v /Users/doo/symspell:/var/www/html ubuntu:latest /bin/bash 6000 번 포트를 사용하는..
AOP는 Aspect Oriented Programming의 약자로 관점 지향 프로그래밍 Aspect로 모듈화하고 핵심적인 비즈니스 로직에서 분리하여 재사용하겠다는 것이 AOP의 취지임 AOP 주요 개념 Aspect : 위에서 설명한 흩어진 관심사를 모듈화 한 것. 주로 부가기능을 모듈화함. Target : Aspect를 적용하는 곳 (클래스, 메서드 .. ) Advice : 실질적으로 어떤 일을 해야할 지에 대한 것, 실질적인 부가기능을 담은 구현체 JointPoint : Advice가 적용될 위치, 끼어들 수 있는 지점. 메서드 진입 지점, 생성자 호출 시점, 필드에서 값을 꺼내올 때 등 다양한 시점에 적용가능 PointCut : JointPoint의 상세한 스펙을 정의한 것. 'A란 메서드의 진입 ..
ELK 는 docker compose 로 구성하고 kafka 로 구성했더니 connection 이 되지 않아서 포기 했는데 검색해보니 Kafka, ELK를 각각 Docker compose로 구성하면 Kafka와 Logstash연동에 문제가 있을수 있다 고 한다. Docker network는 default bridge이며, 기본적으로 같은 네트워크로 묶인 컨테이너끼리 통신이 가능 이니께.. docker network connect, 공용 외부 네트워크 생성으로 해결할수도 있으나 compose로 구성 git clone https://github.com/900gle/docker-elk cd docker-elk docker-compose.yml 수정 기존에 쓰고 있던 es8.8.1 elk 에 kafka 추가 v..
5amsung 에서 사용할 승부 결과를 저장하는 api 를 만들어 보잣 spring kafka 의존성 추가 /* kafka */ implementation 'org.springframework.kafka:spring-kafka' 간단하게 이름만 브로커에 저장하는 api 5amsung api 로 따로 만들려고 했는데 swagger 에러가 계속 나서 900gle에 기생수 마냥 심어 놓음 package com.bbongdoo.doo.service; import lombok.RequiredArgsConstructor; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.stereotype.Service; @Service ..
애드센스 등록이 계속 실패 한다... 뭐때문일까 도움안되는 컨텐츠 인가 뭔가로 계속 빠꾸 당하는데 쓸때없는 글이라도 주저리 주저리 적으면 우리 미국친구들이 좀 봐주지 않을까 싶다. ㅈㄴ 양아치같은게 수익을 줘야 하는 에드센스는 계속 반려시키면서 에드초이스 이런거로 광고를 겁나 붙이네 5amsung Table 회원 정보 -- drop table users; CREATE TABLE users ( `id` bigint NOT NULL AUTO_INCREMENT, `name` varchar(200) NOT NULL, `use_yn` enum('Y','N') NOT NULL DEFAULT 'Y', `created_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP, `upd..
itemNm 에서 실패검색어를 기반으로 조회 했을때 유의미한 데이터를 추출한다. 띄어쓰기 영향 X 공백기준 앞뒤 순서 영향 X 위의 조건을 고려하여 적합한 쿼리 구현 후보 1. wildcard *{keyword}* 의 경우 단일 단어에서는 유의미한 결과가 나오지만 공백을 포함한 단어에서는 재현율이 좋지 않음 후보 2. query_string 작업의 의도에 가장 부합하는 결과를 도출할 수 있음. query result 후보 3. match 동일한 키워드에서 무의미한 데이터 같이 추출 됨