일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- intervals
- Collectors.toMap
- ElasticSearch
- collect
- Draw.IO
- analyze api
- AbsDistinct
- mkdirs
- codility
- AbsDistinct java
- Warnings
- https warning
- high level client
- mkdir
- es
- ELK
- Elastic Stack
- AbsDistinct 풀이
- low level client
- es test data
- 5amsung
- java set
- java
- 코딩테스트
- draw.io down
- 카드모으기 자바
- urllib3
- elasticsearch java
- ES Query
- flow chart
- Today
- Total
목록분류 전체보기 (56)
5AMSUNG
Map 을 선언하고 배열을 순회하면서 put을 해주는 것이 귀찮기도하고.. 어쩌면 더 명시적으로 데이터를 확인하면서 처리할 수 있는 방법인거 같음에도 Stream collect 로 맵을 만들어 보자 내가 원하는 형태의 Map 은 Map map {aaaa=1.0, bbbb=1.0} 이런 모양이긴 한데 Float 값 즉, value 는 1.0f 값으로 고정되야 한다. 오브젝트로 이루어진 리스트의 경우는 쉽게 데이터를 만들 수 있었는데... 내가 원하는 구조는 아래와 같은 코드로 만들 수 있었다. String[] strings = new String[]{"aaaa", "bbbb"}; Map map = Arrays.stream(strings).distinct().collect(Collectors.toMap(Fu..
문제안에 답이있는.. 절대값 중복제거 Math 클레스의 절대값을 구하는 abs 메소드를 사용하여 양수 음수 구분없이 처리 하고 중복을 허용하지 않는 자료구조 중 Set 을 사용하여 풀었드아. A non-empty array A consisting of N numbers is given. The array is sorted in non-decreasing order. The absolute distinct count of this array is the number of distinct absolute values among the elements of the array. For example, consider array A such that: A[0] = -5 A[1] = -3 A[2] = -1 A[3]..
아마도 이런글 때문에 애드센스에서 자꾸 빠꾸를 먹는것 같다. 가치가 별로 없는 콘텐츠 - 사용자에게 유용하지 않으며 이해하기 어려운 콘텐츠 (예: 필러 텍스트 또는 'ipsum lorem 텍스트' 입니다. 풀어서 설명하자면 텍스트 양을 채우기 위해 같은 단어를 반복하거나 또는 말도 안되는 단어 조합으로 그럴듯하게 게시글을 채우는 것 국을 이 시키들아 나만 볼려고 만든 거긴한데 다른사람도 이거 보고 테스트 할때 귀찮게 데이터셋을 만드는 수고를 덜 수 있다는 생각은 안하냐?!!! 아무튼 테스트 할때 써먹을 코드 아래는 인덱스에 벌크로 색인하는 코드 index : coo POST _bulk {"index":{"_index":"coo", "_id":"1"}} {"name":"나이키", "weight" : 1, ..
집에서 로컬러 띄워서 놀다보니 회사에 오니 ssl 인증서가 죄다 설치되어야해서 문제가 됨 접속해야 하는 호스트는 htts 인데 ssl 인증을 하지 않게하니 client = Elasticsearch("https://id:pw@host:443/", ca_certs=False, verify_certs=False) 경고가 겁나 날라온다. 모니터링 하는데 방해가 되서 메시지를 안뜨게 처리 해야겠다 아래와 같이 urllib3를 불러와서 워닝을 지워준다 import urllib3 urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
풀어보자! easy 라고 하길래 겁나 쉬운줄 알고 대충 풀었는데 역시나.. 케이스에 대한 처리가 안되있다 보니 수정해서 다시 제출 문제 An array A consisting of N integers is given. It contains daily prices of a stock share for a period of N consecutive days. If a single share was bought on day P and sold on day Q, where 0 ≤ P ≤ Q < N, then the profit of such transaction is equal to A[Q] − A[P], provided that A[Q] ≥ A[P]. Otherwise, the transaction bring..
코딩테스트 난이도 easy, 1단계 수준에서는 Set 을 이용해서 푸는 방법이 많이 나오는것 같은데.. 중복 안되고 순서 따질 필요 없고..set 이지.. 머.. 풀어보잣 문제는 아래와 같다. Set은 List와는 다르게 객체(데이터)를 중복해서 저장할 수 없다. 또한 저장된 객체(데이터)를 인덱스로 관리하지 않기 때문에 저장 순서가 보장되지 않는다. Set 컬렉션을 구현하는 대표적인 클래스들은 HashSet, TreeSet, LinkedHashSet 등이 있다. Set - HashSet, TreeSet, LinkedHashSet package groom; import java.io.BufferedReader; import java.io.InputStreamReader; import java.util.H..
아마도 이런 스타일의 글 때문에도 애드센스 심사에서 빠꾸를 먹는것 같다. 구백글은 쉽게 받았는데 .. 젠장.. 자주쓰는 명령어를 모아보잣 _termvectors 색인된 도큐먼트의 역 인덱스의 내용을 확인할 때는 도큐먼트 별로 _termvectors API를이용해서 확인 GET /_termvectors/?fields= _explain 특정 문서가 쿼리와 일치하는(또는 일치하지 않는) 이유에 대한 정보를 반환합니다. GET //_explain/ POST //_explain/ _analyze Elasticsearch 에서는 분석된 문장을 _analyze API를 이용해서 확인할 수 있습니다. 토크나이저는 tokenizer, 토큰 필터는 filter 항목의 값으로 입력하면 됩니다. 토크나이저는 하나만 적용되기 ..
elastic stack 8.4.1 을 설치 후 kibana maps 가 있길래 한번 건들여봄 국가별 ip 와 위도 경도 정보가 있는 파일을 ES에 색인하고 maps 를 실행시켜서 확인해보았다. 색인 구조를 가지고 있는 index.json 파일 나중에 아이피도 테스트 해봐야 하니까 ip 정보는 ip type 타입으로 맵핑, location 정보는 geo_point 타입으로 맵핑 나머지는 주소정보니까 대충 keyword 타입으로 맵핑 { "settings": { "number_of_shards": 2, "number_of_replicas": 0 }, "mappings": { "dynamic": "true", "_source": { "enabled": "true" }, "properties": { "priv..
원인좀 파악해주세요. 라고 빡치게 한다면 Search Profiler 를 사용해보자. 이유를 설명해주면 근거를 대라고 하는 얼토당토 않은 사람도 많으니.. 걀걀 Kibana Dev Tools 에 가면 가장많이 쓰는 Console 옆에 Search Profiler 라는 탭(?) 이 있다. 눌러보자 이런화면인데 왼쪽은 쿼리를 넣고 오른쪽에서는 Query 와 Aggregation 의 프로파일링된 내용을 확인 할 수 있다. 자.. 쿼리를 넣고 파란버튼 Profile 클릭 하면 아래와 같이 프로파일된 내용을 확인 할 수 있다. 디테일을 봐볼까? View details 를 클릭해보면 상세 내용을 확인할 수 있다. 눌러보자 Lucene 구문 으로 바뀐 structure 쿼리를 볼 수 있다. 놀라운 사실.. match..
노드 속성을 사용하여 hot-warm-cold 아키텍처를 구현하는 방식은 더 이상 권장되지 않습니다. Elasticsearch 7.10 은 데이터 수명 주기 구성을 덜 복잡하게 만들었습니다. 이 블로그 게시물에서는 몇 가지 변경 사항, 사용 방법 및 그 과정에서 몇 가지 모범 사례를 살펴보겠습니다. 데이터 수명 주기는 많은 단계를 포함할 수 있으므로 다음을 살펴보겠습니다. 클러스터를 계층(핫, 웜, 콜드)으로 분할하여 새 데이터가 올바른 위치로 이동하도록 합니다. 계층 간에 데이터를 마이그레이션하기 위해 인덱스 수명 주기 관리(ILM) 내에서 이러한 계층을 활용합니다. 검색 가능한 스냅샷을 사용하여 콜드 계층 내에서 데이터 밀도를 높입니다. 데이터가 계층을 통해 흐르는 방식에 대한 실제 예와 함께 모든 ..