본문 바로가기
CS

메모리 관리

by Shark_상어 2023. 1. 11.
728x90

메모리 관리

운영체제의 대표적인 할 일중 하나가 메모리 관리이다. 컴퓨터 내의 한정된 메모리를 극한으로 활용해야 하는 것이기 때문이다.

가상메모리

가상 메모리(virtual memory) 는 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여

이를 사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.

이때 가상적으로 주어진 주소를 가상 주소(logical address) 라고 하며, 실제 메모리상에 있는 주소를 실제 주소(physical address) 라고 한다.

 

가상 주소는 메모리관리장치(MMU)에 의해 실제 주소 로 변환되며, 이 덕분에 사용자는 실제 주소를 의식할 필요 없이 프로그램을 구축할 수있게 된다.

 

가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 '페이지 테이블'로 관리된다. 이때 속도 향상을 위해 TLB를 쓴다.

TLB

메모리와 CPU 사이에 있는 주소 변환을 위한 캐시이다. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블 까지 가지 않도록 해 속도를 향상 시킬수 있

는 캐시 계층이다.

스와핑

만약 가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트 가 발생한다. 이를 방지 하기 위해 당장 사용하지

않는 영역을 하드디스크로 옮겨 필요할 때 다시 RAM으로 불러와 올리고, 사용하지 않으면 다시 하드디스크로 내림을 반복하여 RAM을 효과적으로 관리 하는것을 스와핑(swapping) 이라 한다.

페이지 폴트

페이지 폴(page fault)는 프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근 했을 경우에 발생 한다. 이 때 운영체제는 다음 과정

으로해당 데이터를 메모리로 가져와서 마치 페이지 폴트가 전혀 발생하지 않은 것처럼 프로그램이 작동하게 해준다. 페이지 폴트와 그로 인한 스와핑은 다음 과정

을 이룬다.

  1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생하여 운영체제에 알린다.
  2. 운영체제는 CPU의 동작을 잠시 멈춘다.
  3. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를 중단하고 현재 물리 메모리에 비어 있는 프레임이 있
  4. 는지 찾는다. 물리 메모리에도 없다면 스와핑이 발동된다.
  5. 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블을 최신화 한다.
  6. 중단되었던 CPU를 다시 시작한다.

페이지

가상 메모리를 사용하는 최소 크기 단위

프레임

실제 메모리를 사용하는 최소 크기 단위

스레싱

스레싱(thrashing) 은 메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능 저하를 초래한다.

 

스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것이다.

 

페이지 폴트가 일어나면 CPU 이용률이 낮아진다. CPU 이용률이 낮아지게 되면 운영체제는 "CPU가 한가한가?" 라고 생

각하여 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 된다.

 

이 와 같은 악순환이 반복되며 스레싱이 일어나게 된다.

 

이를 해결 하기 위한 방법으로는 메모리를 늘리거나, HDD를 사용한다면 HDD를 SDD로 바꾸는 방법이 있다.

이외에 운영체제에서 이를 해결할 수 있는 방법은 작업세트 와 PFF 가 있다.

작업세트

작업 세트(working set) 는 프로세스의 과거 사용 이력인 지역성(locality) 을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드 하는 것이다.

 

미리 메모리에 로드하면 탐색에 드는 비용을 줄 일수 있고 스와핑 또한 줄일 수 있다.

PFF

PFF(Page Fault Frequency) 는 페이지 폴트 빈도를 조절하는 방법으로 상한선 과 하한선을 만드는 방법이다. 상한선에 도달하면 페이지를 늘리고 하한선에 도달 하면 페이지를 줄이는 것이다.

메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데, 연속 할당 과 불연속 할당 으로 나뉜다.

연속 할당

연속 할당은 "연속적으로" 공간을 할당 하는것을 말한다.

 

위의 그림처럼 file1, file2, file3가 순차적을 공간에 할당하는 것을 볼 수있다.

이는 메모리를 미리 나누어 관리하는 고정 분할 방식 과 매 시점 프로그램 의 크기에 맞게 메모리를 분할 하여 사용하는 가변 분할 방식 이 있다 .

 

고정 분할 방식

고정 분할 방식(fixed partition allocation)은 메모리를 미리 나누어 관리하는 방식이며, 메모리가 미리 나뉘어 있기 때문에

융통성이 없다. 또한, 내부 단편화 가 발생한다.

가변 분할 방식

가변 분할 방식(variable partition allocation)은 매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나누어 사용한다.

내부 단편화 는 발생하지 않고 외부 단편화 는 발생 할수 있다.

 

이는 최초적합(first fit), 최적 적합(best fit), 최약적합(worst fit) 이 있다.

  • 최초적합: 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당 한다.
  • 최적적합: 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당 한다.
  • 최약적합: 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당 한다.

 

내부 단편화(internal fragmetation)

메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많아 발생하는 현상

외부 단편화(external fragmetation)

메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상, ex) 100MB를 55MB, 45MB로 나누었지만 프로그램의 크기는 70MB일 때 들어가지 못하는 것을 말한다

홀(hole)

할당할 수있는 비어 있는 메모리공간이다.

 

불연속 할당

메모리를 연속적으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인 페이지 기법이 있다.

메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을할당하는 것이다.

페이지 기법 말고도 세그멘테이션, 페이지드 세그멘테이션 이 있다.

페이징

페이징은 동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다.

홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.

세그멘테이션

세그멘테이션(segmentation)은 페이지 단위가 아닌 의미 단위인 세그먼트(segment)로 나누는 방식이다.

프로세스는 코드, 데이터, 스택, 힙 등으로 이루어지는데, 코드 와 데이터 등 이를 기반으로 나눌 수도 있으며 함수 단위로 나 눌수도 있음을 의미한다.

공유와 보안 측면에서 좋으며 홀 크기가 균일하지 않은 문제가 발생한다.

페이지드 세그멘테이션

페이지드 세그멘테이션(paged segmentation)은 공유나 보안을 의미 단위의 세그먼트로 나누고, 물리적 메모리는 페이지로 나누는 것을 말한다.

페이지 교체 알고리즘

메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다. 스와핑은 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이

일어난다.

오프라인 알고리즘

오프라인 알고리즘(offline algorithm)은 먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘이며, 가장 좋은 방법이다.

그러나 미래에 사용되는 프로세스를 알 수 있는 방법은 없다.

즉 사용 할수 없는 알고리즘이지만 다른 알고리즘과의 성능 비교에 대한 기준을 제공한다.

FIFO

FIFO(First In First Out)는 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 의미한다.

LRU

LRU(Least Recentle Used)는 참조가 가장 오래된 페이지를 바꾼다. "오래된" 것을 파악 하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제가 있다.

 

위의 그림에서 보듯이 4번째에 가장 오래된 1번 페이지 제거 하는것을 볼수 있다.

이를 LRU 방식라고 한다.

NUR

LRU에서 발견한 NUR(Not Used Recently) 알고리즘이 있다.

일명 clock 알고리즘이라고 하며 먼저 0 과 1을 가진 비트를 둔다. 1을 최근에 참조 되었고 0은 참조되지 않음 을 의미한다.

 

시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.

LFU

LFU(Least Frequently Used) 은 가장 참조 횟수가 적은 페이지를 교체한다. 즉 많이 사용되지 않은 것을 교체 하는 것이다.

 

728x90

'CS' 카테고리의 다른 글

멀티 프로세싱 & 스레드&멀티 스레딩  (0) 2023.01.14
프로세스의 메모리 구조 와 PCB  (0) 2023.01.13
메모리 계층  (0) 2023.01.10
운영체제(OS) 와 컴퓨터  (1) 2023.01.09
HTTP  (0) 2023.01.08