#hello world
#ETC
- Ubuntu 18.04에서 pyenv로 python설치 시 openssl 에러 해결방법
- Ubuntu18.04에서 python pip로 mysqlclient설치 시 에러 해결방법
- Jupyter notebook에서 한글 폰트 설정하기
- Ubuntu18.04에서 xmodmap을 이용한 key remap
- Ubuntu18.04에서 ZSH 및 Oh-My-Zsh로 터미널 꾸미기
- Oh-My-Zsh로 테마 적용하기
- Linux의 그림판 Kolourpaint
- Ubuntu18.04에서 eclipse 설치
- vscode 완전히 삭제하기
- Ubuntu apt서버를 daumkakao로 바꾸기
- Linux의 iconv 명령어 (파일 인코딩 변경)
- Google Compute Engine VM인스턴스에 SSH로 접속하기
- System-Monitoring-Dashboard 만들기 (fluent-bit, influxDB, grafana)
- AWS Access Key 생성하기
- Grafana에서 Alert 설정하기 (Email 알림)
- Selenium에서 스크롤 하는 법
#error
- Ubuntu 18.04에서 pyenv로 python설치 시 openssl 에러 해결방법
- Ubuntu18.04에서 python pip로 mysqlclient설치 시 에러 해결방법
- vscode 완전히 삭제하기
#pyenv
#mysqlclient
#jupyter
#matplotlib
#xmodmap
#ZSH
#Oh-My-Zsh!
#kolourpaint
#Python
#Google
#API
#Java
- vscode에서 java, maven 개발환경 설정하기
- Maven으로 jar파일 생성 & 실행
- 추상 클래스(abstract class)와 인터페이스(interface)
- java의 자료구조 라이브러리 collections
- Java String Class
- Java '=='연산자와 equals() 메서드의 차이
#vscode
#maven
#IDE
#eclipse
#Algo-and-DS
#NoSQL
- [MongoDB] Ubuntu에서 MongoDB 설치
- [MongoDB] mongodb 유저 생성하기
- [MongoDB] db.collection.find() 정리
- [MongoDB] db.collection.update() 정리
- [InfluxDB] Retention Policy란? & 설정 방법
#mongoDB
- [MongoDB] Ubuntu에서 MongoDB 설치
- [MongoDB] mongodb 유저 생성하기
- [MongoDB] db.collection.find() 정리
- [MongoDB] db.collection.update() 정리
#SSH
#Grafana
#InfluxDB
- System-Monitoring-Dashboard 만들기 (fluent-bit, influxDB, grafana)
- [InfluxDB] Retention Policy란? & 설정 방법
#BigData
- Spark & Zeppelin 설치하기
- [Spark를 활용한 데이터분석] 0. 강의 설명
- Spark에서 S3 데이터 읽어오기
- [Spark를 활용한 데이터분석] 1. SparkSession 객체 생성 & 데이터 Load
- [Spark를 활용한 데이터분석] 2. 데이터 전처리
- [Spark를 활용한 데이터분석] 3. 얼마나 많은 항공사가 있을까?
- [Spark를 활용한 데이터분석] 4. 항공사들의 운항거리, 횟수 톺아보기
- [Spark를 활용한 데이터분석] 5. 운항 노선 알아보기
- [Spark를 활용한 데이터분석] 6. 가장 바쁜 공항 TOP10
- [Spark를 활용한 데이터분석] 7. 실제와 예상 비행시간의 차이가 가장 큰 노선은?
- [Spark를 활용한 데이터분석] 마지막. 메서드 총정리
- [Spark] Temp View 생성 및 삭제
- [Spark] cache()와 persist()의 차이
#Spark
- Spark & Zeppelin 설치하기
- [Spark를 활용한 데이터분석] 0. 강의 설명
- Spark에서 S3 데이터 읽어오기
- [Spark를 활용한 데이터분석] 1. SparkSession 객체 생성 & 데이터 Load
- [Spark를 활용한 데이터분석] 2. 데이터 전처리
- [Spark를 활용한 데이터분석] 3. 얼마나 많은 항공사가 있을까?
- [Spark를 활용한 데이터분석] 4. 항공사들의 운항거리, 횟수 톺아보기
- [Spark를 활용한 데이터분석] 5. 운항 노선 알아보기
- [Spark를 활용한 데이터분석] 6. 가장 바쁜 공항 TOP10
- [Spark를 활용한 데이터분석] 7. 실제와 예상 비행시간의 차이가 가장 큰 노선은?
- [Spark를 활용한 데이터분석] 마지막. 메서드 총정리
- [Spark] Temp View 생성 및 삭제
- [Spark] cache()와 persist()의 차이
#Zeppelin
#AWS
#Pandas
#Selenium