알고리즘 시험에 패스한 기념으로

그동안 알고리즘 공부한걸 정리해보고자 한다 ^^ (기쁜맘으로)

 

그렇담 우선 Graph 최단거리 3종 아이들부터 정리해보고자 한다.

 


최단거리 알고리즘은 3가지가 대표적이다.

 

1. 다익스트라

2. 벨만포드

3. 플로이드 워셜

 

1) 시작점 , 도착점

1 to 1 : 다익스트라

1 to N : 다익스트라

N to 1 : 다익스트라 (역방향 그래프를 만들어 도착점을 출발점으로 하는 1 to N 다읷트라 수행) - 역다익

N to N : 플로이드 워셜

 

2) 간선의 가중치

가중치가 없으면?   BFS

가중치가 있으면서 양수이면 ? 다익스트라 (=> Priority Queue 사용)

가중치가 있으면서, 음수이면? 벨만포드 

 

3) 트리 

-> LCA

 

 

이번에 vue.js 개발을 많이 하게되면서

가장 헷갈리게 된 포인트가 이것이다

 

언제 computed를 쓰고, 언제 watch를 쓰지?

사실 두개다 얻어지는 결과값은 엇비슷하기 때문이다

 

그래서 이 고민을 많이 했다

그러면 더 이상 고민하지 않도록 정리보도록 하쟈 ㅎㅎ

 

 

예제도 쓰면 좋지만 ㅎㅎ vue 공식문서에 있는것을 보면 될듯 싶다.


1. computed : 반응형 getter

- 사용하기 편하고, 자동으로 값을 변경하고 캐싱해주는 반응형 getter

- 선언형 프로그래밍 방식

- 계산된 결과가 캐싱된다. computed 속성은 해당 속성이 종속된 대상이 변경될때만 함수를 실행한다

  • 이는 method와 다른 점이다. method를 호추하면, 렌더링을 할 때마다, 항상 함수를 실행한다.

- computed는 computed에 새로운 프로퍼티를 추가해 주어야한다. data와 혼재에서 사용 불가

 

2. watch : 반응형 콜백

- 프로퍼티가 변경될 때, 지정한 콜백 함수가 실행 : 반응형 콜백

- data에 새로 프로퍼티를 추가 할 필요 없고, 명시된 프로퍼티를 감시할 것이다~를 표현해주면된다.

- vue 공식 문서에, computed와 watch 둘다 가능 한 것은 computed를 쓰라고 명시되어 있다.

  • 선언형 프로그래밍이 명령형 프로그래밍보다 코드 반복 및 우수해서

 

 

3. 언제쓸까?

1) data 에 할당 된 값들 사이의 종속관계를 자동으로 세팅 : computed

2) 프로퍼티 변경시점에 action이 필요할때 (api call , router ...) : watch

3) computed는 종속관계가 복잡할 수록 재계산시점을 알 수 없어서 종속관계의 값을 리턴하는것 이외에는 코드 지양

4) computed와 watch 둘다 가능 한 것은 computed

 

5) data의 실시간/빈번한 update가 필요한것은 watch,  한번 렌더링 되었을때만 update되면 되는것은 computed

 좀 애매할 수도 있지만 실제로 개발하면서 느꼈던 것이다.

여러 컴포넌트들 사이의 부모-자식관계가 있는데 이와중에 받은 props를 또 자식에서 변경하거나, 하는 요건이 많은데

페이지를 처음 렌더링 할때 1번만 해당 data를 update하면 된다면 compted를

계속해서 다른 컴포넌트 사이의 정보가 업데이트 되면서 해당 정보가 현재 달라졌는지? 실시간으로 보아야한다면 watch를 써 주었다.

 

6) computed는 이미 정의된 계산식에 따라 결과값을 반환할때,

  watch는 특정한 어똔조건에서 함수를 실행시키기 위한 트리거로 사용 가능

 

 

 

 

 


참고

kr.vuejs.org/v2/guide/computed.html

medium.com/@jeongwooahn/vue-js-watch%EC%99%80-computed-%EC%9D%98-%EC%B0%A8%EC%9D%B4%EC%99%80-%EC%82%AC%EC%9A%A9%EB%B2%95-e2edce37ec34

강화학습 교육 들은걸 정리하고자 한다,,

정리안하면 까먹으니까 ^^,,

기억나는데 까지 해보쟈...ㅁ7ㅁ8

 


1. 기계학습의 분류

지도학습 label 된 Data를 이용하여 학습
input data에 결과값이 있음.
정답을 신경망에 학습시킴
비지도학습 label이 없는 data를 이용하여 학습

강화학습 보상을 최대화 하는 Decision Making 학습
학습해서 나온 값을 가지고 모델링 
보상을 학습 시키기 위해 지도학습을 한다 -> 최종 보상값을 학습한다.
인공지능이 서택을 함
정답이 없는 상태 score만 보고 학습을 시킴

 

2. 지도학습

- 정답을 신경망에 학습 시킴

- Gradient Descent

  •  신경망을 만들고 LOSS를 정의한후, 사용하면 신경망이 수정됨 -> LOSS값이 낮아짐
  • 신경망 F ( input -> output)
  • LOSS : 신경망의 성능지표 
optimizer = torch.optim.Adam(F.parameters())

optimizer.zero_grad()
LOSS.backward() //미분 : 기울기를 구한다 
optimizer.step() // 적당히 작은 값을 곱해서 minimum cost에 가까워지게 한다 Back propagation

반복 적용하여 LOSS값을 낮춘다.

 

- 지도학습이 유용한 이유? 학습시키지 않은 값들도 output을 구할 수 있다. ( 추론 가능 )

 

3. 강화학습

score를 최대화 하는 output을 선택

에이전트가 현재의 상태를 인식하여 선택 가능한 행동들 중 보상을 최대화 하는 행동을 선택

 

- Challenge 1 : 학습을 위해 탐험 필요

  • Exploration (탐험) vs Exploitation (활용) 의 균형이 필요

- Challenge 2 : 장기적 보상 추구 

 

 

3.1 가치기반 강화 학습 ( Value Based )

- 모든 state에 대해서 기대 할 수 있는 최종 보상값을 계산하고, 그 값을 이용하여 action을 선택

- 탐험을 제외 하고, 각 state 마다 action 결정되어 있음

 

1) Monte-Carlo Method

- Episode를 한번 완전히 진행해야 한번 학습하는 것이다.

- History에서 배운다.

- 보상을 학습시키기 위해 지도학습을 한다 -> 최종 보상 값을 학습한다.

- 좋은 학습을 위해 가끔 활용( Exploitation) 대신 탐험(Exploration)이 필요

- Episode 진행 중간에 잘못된 action하나가 그전 action을 모두 나쁜 것으로 만듦

2) SARSA Method

- 한번의 state - action step 단위로 학습함

- Boot-strapping 통한 지도학습

- 한 에피소드당 N개의 loss 확보

- F(s1)[a1] : state1 에서 action1 했을 받을 있는 reward

- F(s1)[a1] = reward1+ F(s2)[a2] 되도록 학습을 시키기 위해서 둘의 차이 = loss

- 중간에 엉터리 답을 내지 않는 논리적인 network 만들 있게 해준다.

3) Q-Larning Method & More

- Sate-Action-Reward-State

- DQN 알고리즘 (유명함) :Replay Memory ? 경험들을 따로 메모리에 저장해두고 경험들을 random하게 뽑아서 연관성 없이 학습하는 것이 제대로 학습을 있다.

 

 

3.2 정책 기반 강화 학습 ( Policy Based )

- 언제나 확률적으로 action 선택

- 신경망의 output action 대한 확률로 정의

 

1) Gradient Ascent

- Gradient Descent의 반대

- LOSS대신 -SCORE , SCORE를 높이도록 학습

- SCORE : 강화학습을 위한 신경망의 성능 지표

              Agent가 정책에 따라 에피소드를 진행 했을 때 얻을 최종 보상의 기댓값

optimizer = torch.optim.Adam(F.parameters())

optimizer.zero_grad()
(-SCORE).backward() 
optimizer.step() 

 

2) Vanilla Policy Gradient

- 최종 보상 기대 값을 SCORE로 사용할 수 없는 이유 ? tree가 너무 큼, 

 환경이 일반적으로 확률성을 포함하고 있어서, 같은 state에서 같은 action을 했더라도 이후 state가 일정하지 않음

- 너무 많으니깐 sampling 된걸 쓰고싶어~ 그런데 , SCORE대신 J simpe을 쓰면 고르게 sampling 되지 않고 

확률이 높은 tragectory가 더 많이 sample됨 

  -> J sampling = logP(trag.) * R(traj.)을 사용하면 sampling을 사용하면서도 기존과 똑같이 Gradient Ascent 적용가능

3) Policy Gradient with Baseline

-평균이 60 나온 시험에서 50 받는것과, 평균이 30 나온 시험에서 50점받는 것중 평균 30점인게 더좋은것이기 때문에 +쪽으로 더많이 가도록 학습해야한다. 아니면 - 쪽으로 ( cartpole..)

- Baseline 기준점 역할인데 처음부터 너무 높으면 모델이 잇는 최대치보다 높으면 baseline 설정 의미가 없어지기 때문에 평균값을 하면 의미 있는 값이다.

 

정책기반에서는 모델이 항상 확률적으로 action 선택하는 선택한 결과의 점수가 reward이고,

평균으로 baseline 잡아주면 현재수준에서 잘하는지 못하는지 알기 쉽기 때문에 학습을 효율적으로 있게 해준다.

 

postgresql을 Centos7에 설치해보겠당

 

근데 서버가 yum이나 library를 인터넷에서 받아오는 환경이 아니어서

tar 파일을 postgresql에서 받아주었다.

 

https://www.postgresql.org/ftp/source/v12.0/

 

PostgreSQL: File Browser

 

www.postgresql.org

 

 

1. tar 압축해제

tar xvfz postgresql-12.0.tar.gz

 

 

2. configure 파일 설정

sudo ./configure --prefix=/apim/data/postgresql/pgsql --without-readline --without-zlib

 

왠만하면 다 sudo권한으로 넣어서 명령어 실행시켜주었다.

 

--prefix 는 설치 디렉토리를 지정해주는 경로이다.

 

그리고 나는 서버에서 readline이랑 zlib이 없어서 빼고 설치하라고 나와서 without을 설정해주었다.

뒤에 두개 옵션은 빼도된다.

 

 

3. postgresql 설치

sudo make
sudo make install

 

 

4. DB 설치

 ./initdb -D /data

/data 라는 경로에 DB를 설치해 주었다.

원하는 경로를 입력 하면 된다.

/data라는 경로에 한 이유는 DB 마운트를 저 경로로 했기 때문이다.

 

 

5. DB 기동

./pg_ctl  start -D /data ( status, restart , stop)

 

start 대신해서 status를 입력하면 현재 상태

restart는 재기동

stop은 기동중지를 할 수 있다 ~_~

 

 

6. 외부 접속 허용

/data/postgresql.conf 에서

    1. listen_addresses = ‘localhost’ –> listen_addresses = ‘*’ 수정

data/pg_hba.conf 에서

  • host all all 0.0.0.0/0 password 추가 

 

7. psql 접속

./psql

 

8. 접속 한뒤 database 생성 및 user 생성

postgres=# CREATE DATABASE {DBname};
postgres=# CREATE USER {UserName};
postgres=# ALTER USER {UserName}  WITH PASSWORD '{Password}';

 

 

 

스키마 생성 및 삭제

Create schema {schemaName};

Drop schema {schemaName} cascade;

 

스키마 이름 변경 

ALTER SCHEMA schema_name RENAME TO new_schema_name;

 

스키마 소유자 변경

ALTER SCHEMA username OWNER TO new_username;

 

 

 

해당 database내의 schema 확인

\dn

 

현재 디비 계정및 role 정보

\du  

 

데이터베이스 접속

\connect {databaseName}

 

데이터베이스 목록조회 

\list  
\l

 

데이터베이스 목록 상세조회

\list+  
\l+

참고

https://lahuman.jabsiri.co.kr/173

 

[CentOS 6]Postgresql 소스 설치

Postgresql 소스 설치 정리 계정 생성 $> adduser postgres postgres 계정으로 로그인 $> su - postgres postgresql 소스 다운로드와 압축 해제 $> wget https://ftp.postgresql.org/pub/source/v9.5.7/postgresql..

lahuman.jabsiri.co.kr

http://blog.naver.com/hanccii/221701395102

 

PostgreSQL db, schema, user 권한 관리

PostgreSQL에서는 database 를 생성하면 default schema로 public 이라는 schema가 생성이 되며,backen...

blog.naver.com

 

 

'DEVELOP > DB' 카테고리의 다른 글

[postgreSql] pg_dump 하는 방법  (0) 2021.03.15
[DB]Isolation Level 알아보기  (0) 2020.07.19
[mySql] 계정 생성 및 권한 설정  (0) 2020.05.25
[MariaDB] general log 설정하기  (0) 2020.05.25
DB (mysql) 설정 변경  (0) 2020.03.13

ㅎㅎ

중요하지만 쵸큼은 헷갈리던 개념에 대해서

정리해보고자 한닷 '-'

 

정리해놓고 내가 다시보는게 중요하거덩여,,, RGRG,,


보통 4가지 레벨로 구분한다.

1. Read Uncomitted

2. Read Committed

3. Repeatable Read

4. Serializable 

 

한가지씩 정리해보고자 한닷 ^_^

사실 알면 간단하다..(자주하는말)

 

 

2. Read Uncommitted

transaction이 끝나지 않은 상황에서 다른 transaction이 변경한 내용에 대한 조회가 가능하다.

DB의 일관성 유지 할 수 없다.

 

다른 transaction에서 중간에 data를 변경하면 변경된 값 그대로 조회가 된다는 것이다.

 

dirty read 현상이 발생한다. transaction이 완료되지 않았는데 다른 transaction에서 볼 수 있는 현상이다.

 

 

2. Read Comitted

조회시, data에 대한 shared lock이 된다

commit이 된 data에 대해 조회가 된다. 하지만 어떠한 사용자가 어떠한 데이터를 변경하는 동안 

다른 transaction은 접근 할 수 없어 대기한다.

변경한 데이터가 commit되고 난 이후 접근 가능하다.

 

실제 테이블  값을 가져오는 것이 아니라 Undo 영역에 백업된 레코드에서 값을 가져온다.

 

 

3. Repeatable Read

transaction이 범위내에서는 조회한 데이터의 내용이 항상 동일함을 보장해준다.

 

Mysql에서는 transaction마다 트랜잭션 ID를 부여하여 트랜잭션id보다 작은 트랜잭션 번호에서 변경한것만 읽게된다.

 

undo 공간에 백업해두고 실제 레코드 값을 변경한다.

이러한 방식을 MVCC(Multi Version Concurrency Control)이라고 부른다.

 

insert시에는 값이 들어간건 보인다,,그래서 쓰기 잠금을 걸어야한다.

4. Serializable

모든 동작이 직렬화 되어 작동한다. Repeatable 와 다르게 insert를 하여도 작동하지 않는다.

성능 측면에서는 동시 처리성능이 가장 낮다.

거의 사용되지 않는다.

 

 

 

 

 

 

 

 

 

 

 

 

 


https://medium.com/@wonderful.dev/isolation-level-%EC%9D%B4%ED%95%B4%ED%95%98%EA%B8%B0-94e2c30cd8c9

 

Isolation level 이해하기

Isolation level이란 트랜잭션에서 일관성이 없는 데이터를 허용하는 수준을 이야기합니다.

medium.com

 

https://nesoy.github.io/articles/2019-05/Database-Transaction-isolation

 

트랜잭션의 격리 수준(isolation Level)이란?

 

nesoy.github.io

 

'DEVELOP > DB' 카테고리의 다른 글

[postgreSql] pg_dump 하는 방법  (0) 2021.03.15
[DB] postgreSql Centos7에 설치 및 설정하기  (0) 2020.08.24
[mySql] 계정 생성 및 권한 설정  (0) 2020.05.25
[MariaDB] general log 설정하기  (0) 2020.05.25
DB (mysql) 설정 변경  (0) 2020.03.13

+ Recent posts