no image
[컴퓨터 구조] 입출력 방법(프로그램 입출력, 인터럽트 기반 입출력, DMA 입출력)
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 입출력 작업을 수행하려면 CPU와 장치 컨트롤러가 정보를 주고받아야 한다. CPU와 장치 컨트롤러와 의 정보 교류의 방법은 크게 아래와 같이 3가지가 있다. 프로그램 입출력 인터럽트 기반 입출력 DMA 입출력 프로그램 입출력 프로그램 입출력은 기본적으로 프로그램 속 명령어로 입출력장치를 제어하는 방법 CPU가 프로그램 속 명령어를 실행하는 과정에서 입출력 명령어를 만나면 CPU는 입출력장치에 연결된 장치 컨트롤러와 상호작용하며 입출력 작업을 수행 메모리에 저장된 정보를 하드 디스크에 백업하는 상황이라면 CPU는 대략 아래 과정으로 입출력 작업을 한다. 1. CPU는 하드..
2023.06.22
no image
[컴퓨터 구조] 입출력 장치(장치 컨트롤러와 장치 드라이버)
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 입출력장치는 모니터, 키보드 스피커 마우스뿐만 아니라 외장 하드 디스크, USB메모리 등도 포함된다. 보조기억장치가 컴퓨터 내부와 정보를 주고받는 방식은 입출력장치와 크게 다르지 않기 때문이다. 장치 컨트롤러 입출력장치는 CPU, 메모리보다 다루기가 더욱 까다롭다. 이유는 두 가지가 있다. 입출력 장치에는 종류가 너무나도 많다. 일반적으로 CPU와 메모리는 데이터 전송률이 높지만, 입출력 장치의 데이터 전송률은 낮다. 입출력 장치는 여러 개가 있고 각각마다 제조사마다 차이가 조금씩 있다. 따라서 다양한 입출력장치와 정보를 주고받는 방식을 규격화하기가 어렵다. 전송률이란 ..
2023.06.21
no image
[컴퓨터 구조] RAID의 정의와 종류
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 1TB 하드 디스크 네 개로 RAID를 구성하면 4TB 하드 디스크 한 개의 성능과 안전성을 능가할 수 있다. RAID의 정의 우리가 글로벌 IT 기업의 서버를 관리하는 엔지니어라고 생각해 보자. 매일 수십, 수백 TB 데이터가 서버로 쏟아지고, 데이터에는 개인 정보, 결제 정보와 같이 민감한 정보도 포함되어 있다. 또한 보조기억장치에는 수명이 존재한다. 이런 정보를 안전하게 관리할 수 있는 방법 중 하나가 RAID이다. RAID(Redunadant Array of Independent Disks)는 주로 하드 디스크와 SSD를 사용하는 기술로, 데이터의 안전성 혹은 높..
2023.06.20
no image
[컴퓨터 구조] 보조기억장치(하드 디스크, 플래시 메모리)
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 보조기억장치에는 다양한 종류가 있다. 그중 가장 대중적인 보조기억장치는 하드 디스크와 플래시 메모리이다. 플래시 메모리는 보조기억장치에만 사용되는 것은 아니다. 하드 디스크(HDD : Hard Disk Drive) 하드디스크는 자기적인 성질(자성)으로 데이터를 저장하는 보조기억장치이다. 이 때문에 하드 디스크를 자기 디스크의 일종으로 지칭하기도 한다. 하드 디스크에서 실질적으로 데이터가 저장되는 곳은 위 그림속 동그란 원판(플래터)이다. 플래터(platter) : 자기 물질로 덮여 있어 수많은 N극과 S극을 저장한다. N극과 S극은 0과 1의 역할을 수행한다. 스핀들 :..
2023.06.19
no image
[컴퓨터 구조] 캐시 메모리
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. CPU가 메모리에 접근하는 시간은 CPU의 연산 속도보다 느리다. CPU가 연산을 빨리 한다 해도 메모리에 접근하는 시간이 느리기 때문에 빠른 연산 속도는 무용지물이 된다. 이를 극복하기 위한 저장 장치가 캐시메모리이다. 저장 장치 계층 구조 빠른 저장 장치와 용량이 큰 저장 장치는 양립하기가 힘들다. 양립할 수 있다 해도 비용이 매우 비쌀 것이다. 저장 장치는 일반적으로 아래와 같은 명제를 따른다. CPU와 가까운 저장 장치는 빠르고, 멀리 있는 저장 장치는 느리다. 속도가 빠른 저장 장치는 저장 용량이 작고, 가격이 비싸다. 낮은 가격대의 대용량 저장 장치를 원한다면..
2023.06.17
no image
[컴퓨터 구조] 메모리의 주소 공간
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 주소에는 두 가지 종류가 있다. 물리 주소 : 메모리 하드웨어가 사용하는 주소 논리 주소 : CPU와 실행 중인 프로그램이 사용하는 주소 물리 주소(physical address)와 논리 주소(logical address) CPU와 실행 중인 프로그램은 현재 메모리 몇 번지에 무엇이 저장되어 있는지 다 알 수 없다(메모리에 저장된 정보는 시시각각 변하기 때문) 물리 주소 : 메모리 입장에서 바라본 주소, 정보가 실제로 저장된 하드웨어 상의 주소를 의미 논리 주소 : CPU와 실행 중인 프로그램 입장에서 바라본 주소, 실행 중인 프로그램에게 부여된 0번지부터 시작되는 주소..
2023.05.11
no image
[컴퓨터 구조] RAM의 특징과 종류
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. RAM의 특징 RAM에는 실행할 프로그램의 명령어와 데이터가 저장됨 비휘발성 저장장치이기 때문에 전원이 차단되면 저장된 내용이 모두 사라진다. CPU는 SRAM(캐시 메모리)을 먼저 참조하고 원하는 데이터가 없으면 DRAM(주기억장치)을 참조한다. CPU는 보조기억장치에 직접 접근하지 못하기에 DRAM(주기억장치)에 실행할 프로그램이나 데이터를 적재한다. 그중에서 자주 사용하는 프로그램이나 데이터를 SRAM(캐시 메모리)에 적재한다. RAM의 용량과 성능 RAM 용량이 작다면 CPU가 실행하고 싶은 프로그램이나 데이터를 보조기억장치에서 RAM에 적재하는 작업이 잦아질 것..
2023.05.10
no image
[컴퓨터 구조] CISC와 RISC
이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다. 세상에는 수많은 CPU 제조사들이 있고, CPU마다 규격과 기능들이 모두 달라서 CPU가 이해하고 실행하는 명령어들은 모두 같지가 않다. 기본적인 명령어의 구조와 작동원리는 비슷하지만 명령어의 세세한 생김새, 주소 지정 방식등은 CPU마다 차이가 있다. CPU가 이해할 수 있는 명령어들의 모음을 명령어 집합(Instruction Set) 또는 명령어 집합 구조(ISA : Instruction Set Architecture)라고 한다. 즉, CPU마다 ISA가 다르다는 것이다. 인텔의 노트북 CPU는 x86 또는 x86-64 ISA를 이해하고, 애플의 아이폰 CPU는 AR..
2023.04.12

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


입출력 작업을 수행하려면 CPU와 장치 컨트롤러가 정보를 주고받아야 한다.

CPU와 장치 컨트롤러와 의 정보 교류의 방법은 크게 아래와 같이 3가지가 있다.

  • 프로그램 입출력
  • 인터럽트 기반 입출력
  • DMA 입출력

 

프로그램 입출력

프로그램 입출력은 기본적으로 프로그램 속 명령어로 입출력장치를 제어하는 방법

CPU가 프로그램 속 명령어를 실행하는 과정에서 입출력 명령어를 만나면 CPU는 입출력장치에 연결된 장치 컨트롤러와 상호작용하며 입출력 작업을 수행

 

메모리에 저장된 정보를 하드 디스크에 백업하는 상황이라면 CPU는 대략 아래 과정으로 입출력 작업을 한다.

1. CPU는 하드 디스크 컨트롤러의 제어 레지스터에 쓰기 명령을 보냄

2. 하드 디스크 컨트롤러는 하드 디스크 상태를 확인하고 상태 레지스터에 표시한다.

3.CPU는 상태 레지스터를 주기적으로 읽기를 하여 하드 디스크의 준비여부를 확인하고 준비가 되었다면 백업할 메모리의 정보를 데이터 레지스터에 쓴다. 아직 백업 작업(쓰기 작업)이 끝나지 않았다면 1번부터 반복하고, 쓰기가 끝났다면 작업을 종료한다.

 

CPU는 여러 장치 컨트롤러의 레지스터들을 모두 알고 있는 것은 매우 힘들다.

따라서 입출력 명령어 표현과 메모리에 저장은 아래와 같이 크게 두 가지 방식이 있다.

  • 메모리 맵 입출력
  • 고립형 입출력
메모리 맵 입출력 고립형 입출력
메모리와 입출력장치는 같은 주소 공간 사용 메모리와 입출력장치는 분리된 주소 공간 사용
메모리 주소 공간이 축소됨 메모리 주소 공간이 축소되지 않음
메모리와 입출력장치에 같은 명령어 사용가능 입출력 전용 명령어 사용

 

메모리 맵 입출력

메모리 맵 입출력은 메모리에 접근하기 위한 주소 공간과 입출력장치에 접근하기 위한 주소 공간을 하나의 주소 공간으로 간주하는 방법이다.

가령 1,024개의 주소를 표현할 수 있는 컴퓨터가 있을 때 1,024개 전부 메모리 주소를 표현하는 데 사용하지 않는다.

512개는 메모리 주소를, 나머지 512개는 장치 컨트롤러의 레지스터를 표현하기 위해 사용한다.

주소 공간 일부를 아래와 같이 약속했다고 가정하자.

  • 516번지 : 프린터 컨트롤러의 데이터 레지스터
  • 517번지 : 프린터 컨트롤러의 상태 레지스터
  • 518번지 : 하드 디스크 컨트롤러의 데이터 레지스터
  • 519번지 : 하드 디스크 컨트롤러의 상태 레지스터

CPU는 '517번지를 읽어 들여라'라는 명령어로 키보드 상태를 읽을 수 있다.

그리고 '518번지에 a를 써라'라는 명령어로 하드 디스크 컨트롤러의 데이터 레지스터로 데이터를 보낼 수 있다.

이때 중요한 점은 메모리 맵 입출력 방식에서 CPU는 메모리의 주소들이나 장치 컨트롤러의 레지스터들이나 모두 똑같이 메모리 주소를 대하듯 하면 된다는 점이다. 그래서 메모리에 접근하는 명령어와 입출력장치에 접근하는 명령어는 굳이 다를 필요가 없다.

CPU가 '517번지를 읽어라'라는 명령어를 실행했을 때 517번지가 메모리상의 주소를 가리키면 CPU는 메모리 517번지에 저장된 정보를 읽어 들일 것이고, 517번지가 프린터 컨트롤러의 상태 레지스터를 가리킨다면 CPU는 프린터의 상태를 확인할 것이다.

 

고립형 입출력

고립형 입출력은 메모리를 위한 주소 공간과 입출력장치를 위한 주소 공간을 분리하는 방법이다.

가령 1,024개의 주소를 표현할 수 있는 컴퓨터가 있다고 가정하자

아래의 그림과 같이 제어 버스에 메모리 읽기/쓰기 선 이외에 입출력장치 읽기/쓰기 선이 따로 있다면 메모리에도 1024개의 주소 공간을 활용하고, 입출력장치도 1024개의 주소 공간을 활용할 수 있다.

CPU가 메모리 읽기/쓰기 선이 활성화되는 명령어를 실행할 때는 메모리에 접근하고, 입출력장치 읽기/쓰기 선이 활성화되는 명령어를 실행할 때는 장치 컨트롤러에 접근한다.

고립형 입출력 방식에서 CPU는 입출력장치에 접근하기 위해 메모리에 접근하는 명령어와는 다른 입출력 명령어를 사용한다.

 


 

인터럽트 기반 입출력

아래의 내용이 이해가 되지 않는다면

2023.04.09 - [컴퓨터 구조 & 운영체제] - [컴퓨터 구조] 명령어 사이클과 인터럽트

위 글을 읽고 오는 것을 추천합니다.
  • CPU가 입출력장치에 처리할 내용을 명령하면 입출력장치가 명령어를 수행하는 동안 CPU는 다른 일을 할 수 있다.
  • 입출력장치가 CPU에게 인터럽트 요청 신호를 보내면 CPU는 하던 일을 잠시 멈추고 해당 인터럽트를 처리하는 프로그램인 인터럽트 서비스 루틴을 실행한 뒤 다시 하던 일로 되돌아온다.

입출력 장치에 의한 하드웨어 인터럽트는 정확히 말하자면 장치 컨트롤러에 의해 발생한다.

이렇게 인터럽트를 기반으로 하는 입출력을 인터럽트 기반 입출력이라고 한다.

폴링
인터럽트와 자주 비교되는 개념 중 하나
폴링이란 입출력 장치의 상태는 어떤지, 처리할 데이터가 있는지를 주기적으로 확인하는 방식
폴링 방식은 당연히 인터럽트 방식보다 CPU부담이 더 크다. 인터럽트를 활용하면 CPU가 인터럽트 요청을 받을 때까지 다른 일을 할 수 있기 때문이다.

 

아래와 같이 여러 입출력 장치에서 인터럽트가 동시에 발생했다고 가정하자

-인터럽트가 발생한 순서대로 처리(플래그 레지스터의 인터럽트 비트 비활성화)

다른 입출력장치에 의한 하드웨어 인터럽트를 받아들이지 않기 때문에 CPU는 순차적으로 하드웨어 인터럽트를 처리

 

-인터럽트를 우선순위를 고려하여 처리(플래그 레지스터의 인터럽트 비트 활성화)

이 경우는 인터럽트 비트를 비활성화해도 무시할 수 없는 인터럽트인 NMI(Non-Maskable Interrupt)가 발생한 경우 CPU는 우선순위가 높은 인터럽트부터 처리한다.

 

우선순위를 반영하여 다중 인터럽트를 처리하는 방법에는 여러 가지가 있지만, 많은 컴퓨터에서는 PIC라는 하드웨어를 사용한다.

 

PIC는 여러 장치 컨트롤러에 연결되어 장치 컨트롤러에서 하드웨어 인터럽트 요청들의 우선순위를 판별한 뒤 CPU에 지금 처리해야 할 하드웨어 인터럽트는 무엇인지 알려주는 장치이다.

 

PIC의 다중 인터럽트 처리 과정은 아래와 같다.

  1. PIC가 장치 컨트롤러에서 인터럽트 요청 신호를 받아들인다.
  2. 인터럽트 우선순위를 판단 -> CPU에 처리해야 할 인터럽트 요청 신호를 전송
  3. CPU는 PIC에 인터럽트 확인 신호를 전송
  4. PIC는 데이터 버스를 통해 CPU에 인터럽트 벡터를 전송
  5. CPU는 인터럽트 벡터를 통해 인터럽트 요청의 주체를 알게 되고, 해당 장치의 인터럽트 서비스 루틴을 실행

 

일반적으로 더 많고 복잡한 장치들의 인터럽트를 관리하기 위해 아래와 같이 PIC를 두 개 이상 계층적으로 구성한다.

NMI 우선순위 판별
PIC는 NMI까지 우선순위를 판별하지 않는다.
NMI는 우선순위가 가장 높아 판별이 불필요하기 때문이다.
PIC가 우선순위를 조정해 주는 인터럽트는 인터럽트 비트를 통해 막을 수 있는 하드웨어 인터럽트이다.

 


 

DMA 입출력

프로그램 기반 입출력과 인터럽트 기반 입출력의 공통점은 아래와 같다.

  • 입출력장치와 메모리 간의 데이터 이동은 CPU가 주도한다.
  • 이동하는 데이터도 반드시 CPU를 거친다

 

입출력 장치와 메모리 사이에 전송되는 모든 데이터가 반드시 CPU를 거친다면 CPU는 입출력장치를 위한 연산 때문에 시간을 뺏기게 된다.

그래서 입출력장치와 메모리가 CPU를 거치지 않고도 상호작용할 수 있는 입출력 방식인 DMA(Direct MEmory Access)가 등장하였다.

DMA 입출력을 하기 위해서는 시스템 버스에 연결된 DMA 컨트롤러라는 하드웨어가 필요하다.

 

DMA 입출력 과정

일반적으로 DMA 입출력은 아래와 같이 이뤄진다.

  1. CPU는 DMA 컨트롤러에 입출력장치의 주소, 수행할 연산(읽기/쓰기), 읽거나 쓸 메모리의 주소등과 같은 정보로 입출력 작업을 명령
  2. DMA 컨트롤러는 CPU 대신 장치 컨트롤러와 상호작용하며 입출력 작업을 수행. 이때 DMA 컨트롤러는 필요한 경우 메모리에 직접 접근하여 정보를 읽거나 쓴다.
  3. 입출력 작업이 끝나면 DMA 컨트롤러는 CPU에 인터럽트를 걸어 작업이 끝났음을 알린다.

위 과정을 그림으로 나타내면 아래와 같다.

 

CPU는 DMA 컨트롤러에게 입출력 작업 명령을 내리고, 인터럽트만 받으면 되기 때문에 작업 부담을 훨씬 줄일 수 있다.

즉, CPU는 오로지 입출력의 시작과 끝에만 관여하면 된다.


하지만 DMA 컨트롤러는 시스템 버스로 메모리에 직접 접근하는데, 시스템 버스는 동시 사용이 불가하다.

시스템 버스는 공용자원이기 때문이다.

따라서 CPU가 시스템 버스를 사용할 때 DMA 컨트롤러는 시스템 버스를 사용할 수 없고, DMA 컨트롤러가 시스템 버스를 사용할 때는 CPU가 시스템 버스를 사용할 수 없다.

그래서 아래의 두 가지 방법을 사용한다.

  • DMA컨트롤러는 CPU가 시스템 버스를 이용하지 않을 때마다 시스템 버스를 조금씩 사용
  • DMA컨트롤러는 CPU가 일시적으로 시스템 버스를 이용하지 않도록 허락을 구하고 시스템 버스를 집중적으로 사용

위와 같은 DMA의 시스템 버스 이용을 사이클 스틸링이라고 부른다.

 

 

입출력 버스

CPU, 메모리, DMA 컨트롤러, 장치 컨트롤러가 모두 같은 버스를 공유하는 구성에서는 DMA를 위해 한 번 메모리에 접근할 때마다 시스템 버스를 두 번 사용하게 되는 부작용이 있다.

DMA 입출력 과정을 다시 생각해 보면

  1. 메모리에서 DMA 컨트롤러로 데이터를 가져오기 위해 시스템 버스를 한 번 사용하고
  2. DMA 컨트롤러의 데이터를 장치 컨트롤러로 옮기기 위해 시스템 버스를 또 한 번 사용한다.

DMA를 위해 시스템 버스를 너무 자주 사용하면 그만큼 CPU가 시스템 버스를 이용하지 못한다.

이 문제는 DMA 컨트롤러와 장치 컨트롤러들을 입출력 버스라는 별도의 버스에 연결하여 해결할 수 있다.

위 그림과 같이 장치 컨트롤러들이 시스템 버스가 아닌 입출력 버스로 DMA 컨트롤러에 연결된다면 DMA 컨트롤러와 장치 컨트롤러가 서로 데이터를 전송할 때는 시스템 버스를 이용할 필요가 없으므로 시스템 버스의 사용 빈드롤 줄일 수 있다.

 

현대 컴퓨터에는 입출력 버스가 있다.

즉, 대부분의 입출력장치(장치 컨트롤러)는 시스템 버스가 아닌 입출력 버스와 연결된다.

입출력 버스에는 PCI(Peripheral Compoent Interconnect)버스, PCI Express(PCIe) 버스등 여러 종류가 있다.

아래의 그림은 여러 입출력장치들을 PCIe 버스와 연결해 주는 통로인 PCIe 슬롯이다.

우리가 사용하는 거의 모든 입출력장치들은 이렇게 입출력 버스와 연결되는 통로를 통해 시스템 버스를 타고 CPU와 정보를 주고받는다.

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


입출력장치는 모니터, 키보드 스피커 마우스뿐만 아니라 외장 하드 디스크, USB메모리 등도 포함된다.

보조기억장치가 컴퓨터 내부와 정보를 주고받는 방식은 입출력장치와 크게 다르지 않기 때문이다.

 

장치 컨트롤러

입출력장치는 CPU, 메모리보다 다루기가 더욱 까다롭다.

이유는 두 가지가 있다.

  1. 입출력 장치에는 종류가 너무나도 많다.
  2. 일반적으로 CPU와 메모리는 데이터 전송률이 높지만, 입출력 장치의 데이터 전송률은 낮다.

입출력 장치는 여러 개가 있고 각각마다 제조사마다 차이가 조금씩 있다. 따라서 다양한 입출력장치와 정보를 주고받는 방식을 규격화하기가 어렵다.

 

전송률이란 데이터를 얼마나 빨리 교환할 수 있는지를 나타내는 지표이다.

CPU와 메모리와 같이 전송률이 높은 장치는 1초에도 수많은 데이터를 주고받을 수 있지만, 키보드나 마우스와 같이 상대적으로 전송률이 낮은 장치는 같은 시간 동안 데이터를 조금씩만 주고받을 수 있다.

물론 어떤 입출력장치는 CPU나 메모리보다 전송률이 높은 경우도 있다. 하지만 결과적으로 CPU나 메모리와 전송률이 비슷하지 않기 때문에 같은 어려움을 겪게 된다.

 

이와 같은 이유로 입출력장치는 컴퓨터에 직접 연결되지 않고 장치 컨트롤러라는 하드웨어를 통해 연결된다.

장치 컨트롤러는 입출력 제어기, 입출력 모듈등으로 다양하게 불린다.

모든 입출력장치는 각자의 장치 컨트롤러를 통해 컴퓨터 내부와 정보를 주고받고, 장치 컨트롤러는 하나 이상의 입출력장치와 연결되어 있다.

 

장치 컨트롤러는 대표적으로 아래와 같은 역할을 통해 앞에서 언급한 문제들을 해결한다.

  • CPU와 입출력장치 간의 통신 중개 : 입출력장치 종류가 많아 정보 규격화가 어려웠던 문제는 장치 컨트롤러가 일종의 번역가 역할을 함으로써 해결한다.
  • 오류 검출 : 통신 중개 과정에서 장치 컨트롤러는 자신과 연결된 입출력 장치에 문제가 없는지 오류를 검출하기도 한다.
  • 데이터 버퍼링 : 버퍼링이란 전송률이 서로 다른 장치 간에 주고받는 데이터를 버퍼(buffer)라는 임시 저장 공간에 저장하여 전송률을 비슷하게 맞추는 방법이다. 쉽게 말해 버퍼링은 버퍼에 데이터를 조금씩 모았다가 한꺼번에 내보내거나, 데이터를 한 번에 많이 받아 조금씩 내보내는 방법이라고 보면 된다.

 

장치 컨트롤러의 내부구조에는 아래와 같이 3가지가 있다.

  • 데이터 레지스터 : CPU와 입출력장치 사이에 주고받을 데이터가 담기는 레지스터, 버퍼의 역할, 최근에는 주고받는 데이터가 많은 입출력장치에서는 레지스터 대신 RAM을 사용하기도 함.
  • 상태 레지스터 : 입출력 장치의 상태정보(작업준비, 오류 유무 등)가 저장된다.
  • 제어 레지스터 : 입출력장치가 수행할 내용에 대한 제어 정보와 명령을 저장
상태 레지스터와 제어 레지스터는 하나의 레지스터(상태/제어 레지스터)로 사용되기도 한다. 하지만 혼란을 방지하기 위해 이 글에서는 상태 레지스터와 제어 레지스터를 분리하여 표현함

이 레지스터들에 담긴 값들은 입출력 버스를 타고 CPU나 다른 입출력장치로 전달되기도 하고, 장치컨트롤러에 연결된 입출력장치로 전달된다.

 


 

장치 드라이버

장치 드라이버란 장치 컨트롤러의 동작을 감지하고 제어함으로써 장치 컨트롤러가 컴퓨터 내부와 정보를 주고받을 수 있게 하는 프로그램이다.

장치 컨트롤러가 입출력장치를 연결하기 위한 하드웨어직 통로라면, 장치 드라이버는 입출력장치를 연결하기 위한 소프트웨어적인 통로이다.

컴퓨터가 장치 드라이버를 인식하고 실행할 수 있다면 그 장치는 어떤 회사에서 만들어진 제품이든 상관없이 컴퓨터 내부와 정보를 주고받을 수 있다.

 

장치 드라이버는 운영체제가 기본으로 제공하는 것도 있지만, 장치 제작자가 따로 제공하기도 한다. 따로 제공하는 경우 입출력장치는 해당 드라이버를 직접 설치해야만 사용이 가능하다. 

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


1TB 하드 디스크 네 개로 RAID를 구성하면 4TB 하드 디스크 한 개의 성능과 안전성을 능가할 수 있다.

 

RAID의 정의

우리가 글로벌 IT 기업의 서버를 관리하는 엔지니어라고 생각해 보자.

매일 수십, 수백 TB 데이터가 서버로 쏟아지고, 데이터에는 개인 정보, 결제 정보와 같이 민감한 정보도 포함되어 있다.

또한 보조기억장치에는 수명이 존재한다. 이런 정보를 안전하게 관리할 수 있는 방법 중 하나가 RAID이다.

RAID(Redunadant Array of Independent Disks)는 주로 하드 디스크와 SSD를 사용하는 기술로, 데이터의 안전성 혹은 높은 성능을 위해 여러 개의 물리적 보조기억장치를 마치 하나의 논리적 보조기억장치처럼 사용하는 기술이다.

 


 

RAID의 종류

RAID 구성 방법을 RAID 레벨이라 표현한다.

RAID 레벨에는 대표적으로 RAID 0 ~ 6이 있고, 그로부터 파생된 RAID 10, 50등이 있다.

이들 중 가장 대표적인 RAID 0, 1, 4, 5, 6에 대해 정리하고자 한다.

 

각 RAID 레벨마다 장단점이 있으므로 어떤 상황에서 무엇을 최우선으로 원하는지에 따라 최적의 RAID 레벨은 달라질 수 있다. 그렇기에 각 RAID 레벨의 대략적인 구성과 특징을 아는 것이 중요하다.

 

RAID 0

여러 개의 보조기억장치에 데이터를 단순히 나누어 저장하는 구성방식

 

어떠한 데이터를 저장할 때 각 하드 디스크는 아래와 같이 번갈아 가며 데이터를 저장

즉, 저장되는 데이터가 하드 디스크 개수만큼 나누어 저장

A, B, C, D라는 4개의 데이터를 각각 여러개씩 쪼개서 저장하는 방식이다.

위 그림에선 4개의 데이터를 각 4개씩 분할했으니 총 16가지의 데이터 그룹이 나오는데, 이를 A1, A2, A3 ... D3, D4라하고 A1,B1,C1,D1의 데이터는 HDD1에 저장하는 방식이다. 나머지 데이터 그룹도 이와 마찬가지로 저장한다.

  • 스트라입(Stripe) : 마치 줄무늬처럼 분산되어 저장된 데이터
  • 스트라이핑(Strinping) 분산하여 저장하는 것 

위와 같이 데이터가 스트라이핑 되면 저장된 데이터를 읽고 쓰는 속도가 빨라진다.

데이터를 읽고 쓰는 속도가 빨라지는 이유는 하나의 대용량 저장 장치를 이용했다면 여러 번에 걸쳐 읽고 썼을 데이터를 동시에 읽고 쓸 수 있기 때문이다.

따라서 4TB 저장 장치 한 개를 읽고 쓰는 속도보다 RAID 0으로 구성된 1TB 저장장치 네 개의 속도가 이론상 4배 정도 빠르다.

하지만 4개로 스트라이핑 된 HDD 중 하나라도 문제가 생긴다면 전체의 데이터가 위험해질 수 있다.

이러한 단점을 보완한 것이 RAID 1이다.

 


 

RAID 1

복사본을 만드는 방식이다.

거울처럼 완전한 복사본을 만드는 구성이기에 미러링(Mirroring)이라고도 부른다.

4TB의 하드 디스크를 쓴다고 가정하면 2TB는 원본 데이터를 저장하고 나머지 2TB는 복사본을 저장하게 된다.

RAID 1에 어떠한 데이터를 쓸 때는 원본과 복사본 두 군데에 쓴다. 그렇기에 쓰기 속도는 RAID 0보다 느리다.

  • 장점 : 복구가 매우 간단하다
  • 단점 : 사용 가능한 용량이 적어진다.

 


 

RAID 4

RAID 1처럼 완전한 복사본을 만드는 대신 오류를 검출하고 복구하기 위한 정보를 저장한 장치를 두는 구성 방식

오류를 검출하고 복구하기 위한 정보를 패리티 비트(parity bit)라고 한다.

RAID 4는 패리티를 저장한 장치를 이용해 다른 장치들의 오류를 검출하고, 오류가 있다면 복구한다.

패리티 비트
패리티 비트는 저장된 데이터의 1bit 오류를 검출하는 코드 방식
패리티 비트는 오류 검출만 가능할 뿐 오류 복구는 불가하다. 하지만 RAID에서 패리티 값으로 오류 수정도 가능하다.

이로써 RAID 4는 RAID 1보다 적은 하드 디스크로도 데이터를 안전하게 보관할 수 있다.

하지만 어떤 새로운 데이터가 저장될 때마다 패리티를 저장하는 디스크에도 데이터를 쓰게 되므로 패리티를 저장하는 장치에 병목현상이 발생한다는 문제가 있다.

 


 

RAID 5

RAID 4의 단점을 보완하기 위해 만들어진 방식

패리티 정보를 분산 저장하여 병목 현상을 해소한다.

 


 

RAID 6

기본적 구성은 RAID 5와 같으나, 서로 다른 두 개의 패리티를 두는 방식이다.

이는 오류를 검출하고 복구할 수 있는 수단이 두 개가 생긴 것이다.

따라서 RAID 6는 4나 5보다 안전한 구성이라 볼 수 있다.

하지만 새로운 정보를 저장할 때마다 함께 저장할 패리티가 두 개이므로, 쓰기 속도는 RAID 5보다 느리다.

 

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


보조기억장치에는 다양한 종류가 있다. 그중 가장 대중적인 보조기억장치는 하드 디스크와 플래시 메모리이다.

플래시 메모리는 보조기억장치에만 사용되는 것은 아니다.

 

하드 디스크(HDD : Hard Disk Drive)

하드디스크는 자기적인 성질(자성)으로 데이터를 저장하는 보조기억장치이다. 이 때문에 하드 디스크를 자기 디스크의 일종으로 지칭하기도 한다.

하드 디스크에서 실질적으로 데이터가 저장되는 곳은 위 그림속 동그란 원판(플래터)이다.

  • 플래터(platter) : 자기 물질로 덮여 있어 수많은 N극과 S극을 저장한다. N극과 S극은 0과 1의 역할을 수행한다.
  • 스핀들 : 플래터를 회전시키는 구성 요소, 스핀들이 플래터를 돌리는 분당 회전수를 RPM단위로 나타냄

 

  • 헤드 : 플래터를 대상으로 데이터를 읽고 쓰는 구성요소, 플래터 위에서 미세하기 떠 있는채로 데이터를 읽고 쓴다.
  • 디스크 암 : 헤드를 원하는 위치로 이동시키는 장치

 

하드 디스크는 일반적으로 여러 겹의 플래터로 이루어져 있고 플래터 양면을 모두 사용할 수 있다. 양면 플래터를 사용하면 위아래로 플래터당 두개의 헤드가 사용된다. 이때 일반적으로 모든 헤드는 디스크 암에 부착되어 다같이 이동한다.

 

플래터는 트랙과 섹터라는 단위로 데이터를 저장한다.

  • 트랙 : 플래터를 여러 동심원으로 나누었을 때 그중 하나의 원을 트랙이라고 부른다.
  • 섹터 : 트랙은 피자처럼 여러 조각으로 나누어지는데 이 한 조각을 섹터라고 부른다. 섹터 하나 크기는 512byte ~ 4,096Byte
  • 실린더 : 여러 겹의 플래터 상에서 같은 트랙이 위치한 곳을 모아 연결한 논리적 단위

 

연속된 정보는 보통 한 실린더에 기록된다. 예를 들어 두 개의 플래터를 사용하는 하드 디스크에서 네 개 섹터에 걸쳐 데이터를 저장할 때는 첫 번째 플래터 윗면, 뒷면과 두 번째 플래터 윗면, 뒷면에 데이터를 저장한다.

연속된 정보를 하나의 실린더에 기록하는 이유는 디스크 암을 움직이지 않고도 바로 데이터에 접근할 수 있기 때문이다.

 

하드 디스크가 저장된 데이터에 접근하는 시간은 크게 탐색 시간, 회전 지연, 전송 시간으로 나뉜다.

  • 탐색 시간(seek time) : 접근하려는 데이터가 저장된 트랙까지 헤드를 이동시키는 시간

 

  • 회전 지연(rotational latency) : 헤드가 있는 곳으로 플래터를 회전시키는 시간

 

  • 전송 시간 : 하드 디스크와 컴퓨터 간에 데이터를 전송하는 시간

 


 

플래시 메모리(Flash Memory)

우리가 흔히 사용하는 USB, SD 카드, SSD가 모두 플래시 메모리 기반의 보조기억장치이다.

아래 그림에서 붉은 박스로 표시한 부분이 플래시 메모리이다.

  • 플래시 메모리는 전기적으로 데이터를 읽고 쓸 수 있는 반도체 기반의 저장 장치
  • 플래시 메모리는 보조기억장치 범주에만 속하지 않고 다양한 곳에 널리 사용하는 저장 장치
  • 플래시 메모리에는 크게 NAND 플래시 메모리와 NOR 플래시 메모리가 있다.

 

두 종류의 플래시 메모리
플래시 메모리는 크게 NAND 플래시 메모리와 NOR 플래시 메모리가 있다.
NAND 플래시와 NOR 플래시는 각각 NAND게이트와 NOR 게이트를 기반으로 만들어진 메모리를 뜻한다.
둘 중 대용량 저장 장치로 많이 사용되는 플래시 메모리는 NAND 플래시 메모리이다.
이 글에서 다루는 내용 또한 NAND 플래시 메모리이다.

 

  • 셀 : 플래시 메모리에서 데이터를 저장하는 가장 작은 단위

이 셀이 모이고 모여 MB, GB, TB 용량을 갖는 저장 장치가 된다.

하나의 셀에 몇 비트를 저장할 수 있느냐에 따라 플래시 메모리 종류가 나뉜다.

  • SLC : 한 셀에 1비트를 저장할 수 있는 플래시 메모리
  • MLC : 한 셀에 2비트를 저장할 수 있는 플래시 메모리
  • TLC : 한 셀에 3비트를 저장할 수 있는 플래시 메모리
  • QLC : 한 셀에 4비트를 저장할 수 있는 플래시 메모리

큰 차이가 아닌것처럼 보여도 이는 플래시 메모리의 수명, 속도, 가격에 큰 영향을 끼친다.

플래시 메모리에 수명이 있는가?
플래시 메모리에는 수명이 있다. 플래시 메모리뿐만 아니라 하드 디스크 또한 수명이 있다.
따라서 USB, SSD, SD 카드는 수명이 다하면 더 이상 저장 장치로써 사용이 불가능하다.

 

위 그림에서 알 수 있듯 같은 셀 대비 SLC -> MLC -> TLC -> QLC로 갈 경우 더 많은 데이터를 저장할 수 있다.

즉, QLC로 갈수록 저장용량에 대한 이점이 있는 것이다.

하지만 반대로 SLC로 갈 수록 속도와 데이터의 안정성, 데이터의 수명이 좋아진다.

 

아래의 표는 SLC ~ QLC까지의 성능을 비교한 표이다.

즉, 같은 용량의 플래시 메모리 저장 장치라고 할지라도 셀의 타입에 따라 수명, 가격, 성능이 다르다.

썼다 지우기를 자주 반복해야 하는 경우 혹은 높은 성능을 원하는 경우에는 고가의 SLC타입을 선택하는 것이 좋고, 저가의 대용량 저장 장치를 원한다면 QLC 타입을 선택하는 것이 좋다.

 

  • 페이지 : 셀들이 모여 만들어진 단위
  • 블록 : 페이지가 모여 만들어진 단위
  • 플레인 : 블록이 모여 만들어진 단위
  • 다이 : 플레인이 모여 만들어진 단위

 

플래시 메모리의 가장 큰 특징은 읽기/쓰기 단위와 삭제 단위가 다르다는 것이다.

  • 읽기/쓰기 단위 : 페이지
  • 삭제 단위 : 블록

 

이때 페이지는 세 개의 상태를 가질 수 있다.

  • Free 상태 : 어떠한 데이터도 저장하고 있지 않아 새로운 데이터를 저장할 수 있는 상태
  • Valid 상태 : 이미 유효한 데이터를 저장하고 있는 상태
  • Invalid 상태 : 쓰레기값이라 부르는 유효하지 않은 데이터를 저장하고 있는 상태

플래시 메모리는 하드 디스크와는 달리 덮어쓰기가 불가능하여 Valid 상태인 페이지에는 새 데이터를 저장할 수 없다.

 

아래의 그림은 플래시 메모리의 간단한 동작을 그림으로 표시한 것이다.

W는 쓰기를 의미하고 가운데의 숫자는 페이지의 번호, 나머지는 데이터를 의미한다

즉, W 1 a는 "1번 페이지에 a라는 데이터를 써라" 라는 뜻이 된다.

왼쪽의 LSN과 PSN은 논리주소와 물리주소를 뜻한다.(매핑 테이블)

페이지의 데이터를 표시하는 칸 오른쪽에 X로 표시되어있는 것은 Invalid(비유효)데이터를 의미한다.

그림에서 보는 것과 같이, 플래시 메모리에서 덮어쓰기가 불가능하기 때문에 이미 데이터가 있는 페이지에 다시 쓰기 명령이 들어오면 다른 페이지(Free 페이지)에 새로 들어온 데이터를 저장하고 해당 페이지를 Free -> Valid상태로 수정한다.

기존에 있던 페이지(Valid)는 Valid -> Invalid 상태로 만든다.

Invalid 상태의 페이지는 쓰레기값을 저장하고 있는 공간이다. 이는 엄연히 용량 낭비이다.

그렇다고 함부로 지울 수 없다. 왜냐하면 삭제 단위는 페이지가 아니라 블록단위이기 때문이다.

따라서 이런 쓰레기 값을 정리하기 위해 가비지 컬렉션 기능을 제공한다.

이는 위 그림에서 "쓰기 명령이 또 들어오면"이 적혀있는 부분을 보면 알 수 있다.

즉, 가비지 컬렉션은 유효한 페이지들만 새로운 블록으로 복사한 뒤, 기존의 블록을 삭제하는 기능이다.

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


CPU가 메모리에 접근하는 시간은 CPU의 연산 속도보다 느리다. CPU가 연산을 빨리 한다 해도 메모리에 접근하는 시간이 느리기 때문에 빠른 연산 속도는 무용지물이 된다. 이를 극복하기 위한 저장 장치가 캐시메모리이다.

 


 

저장 장치 계층 구조

빠른 저장 장치와 용량이 큰 저장 장치는 양립하기가 힘들다. 양립할 수 있다 해도 비용이 매우 비쌀 것이다.

저장 장치는 일반적으로 아래와 같은 명제를 따른다.

  • CPU와 가까운 저장 장치는 빠르고, 멀리 있는 저장 장치는 느리다.
  • 속도가 빠른 저장 장치는 저장 용량이 작고, 가격이 비싸다.

낮은 가격대의 대용량 저장 장치를 원한다면 느린 속도는 감수해야 하고, 빠른 메모리를 원한다면 작은 용량과 비싼 가격을 감수해야 한다는 뜻이다.

이렇게 저장 장치들의 장단점이 명확한데, 어느 하나의 저장 장치만 사용하는 것은 매우 비효율적일 것이다.

그래서 컴퓨터는 다양한 저장 장치를 모두 사용한다.

컴퓨터가 사용하는 저장 장치들은 'CPU에 얼마나 가까운가'를 가준으로 계층적으로 나타낼 수 있다.

이를 저장 장치 계층 구조라고 한다. 

위와 같은 계층 구조에서 속도와 가격은 위로 올라갈수록 높아지는 경향이 있고, 반대로 용량은 위로 올라갈수록 낮아지는 경향이 있다.

 


 

캐시 메모리

CPU가 메모리에 접근하는 속도는 레지스터에 접근하는 속도보다 느리다.

CPU 연산 속도가 아무리 빨라도 메모리에 접근하는 속도가 따라가지 못한다면 빠른 CPU의 연산속도는 무용지물이 된다.

병목현상
두 장치에서 하나의 장치 속도는 빠른데 다른 장치가 느림으로 인해 전체적인 성능이 저하되는 것을 병목현상이라고 한다.

그래서 등장한 저장 장치가 캐시 메모리이다. 캐시 메모리는 CPU와 메인 메모리 사이에 위치하고, 레지스터 보다 용량이 크고, 메모리 보다 빠른 SRAM기반의 저장 장치이다.

CPU가 매번 메모리에 왔다 갔다 하는 것은 시간이 오래 걸리니까 메모리에서 CPU가 사용할 일부 데이터를 미리 캐시 메모리로 가지고 와서 활용하는 것이다.

 

우리가 일반적으로 사용하는 컴퓨터 내부에는 여러 개의 캐시 메모리가 있다. 그리고 이 캐시 메모리들은 CPU(코어)와 가까운 순서대로 계층을 구성한다. 코어와 가장 가까운 캐시를 L1(Level 1)캐시, 그다음 가까운 캐시 메모리를 L2(Level 2)캐시, 그다음 가까운 캐시 메모리를 L3(level 3)캐시라고 부른다.

 

일반적으로 L1 캐시와 L2 캐시는 코어내부에, L3캐시는 코어 외부에 위치해 있다.

캐시 메모리에서 일반적으로 용량은 L1 < L2 < L3, 속도는 L3 < L2 < L1, 가격은 L3 <  L2 < L1이다.

CPU가 메모리 내에 데이터가 필요하다고 판단하면 먼저 L1 캐시에 해당 데이터가 있는지를 알아보고, 없다면 L2, L3 캐시 순으로 데이터를 검색한다.

 

멀티 코어 프로세서에서 L1-L2-L3 캐시는 일반적으로 다음과 같이 구현된다. L1 캐시와 L2 캐시는 코어마다 고유한 캐시 메모리로 할당되고, L3 캐시는 여러 코어가 공유하는 형태로 사용된다.

 


 

참조 지역성의 원리

캐시 메모리는 메인 메모리보다 용량이 작다. 당연하게도 캐시 메모리는 메인 메모리에 있는 모든 내용을 가져다 저장할 수 없다.

캐시 메모리는 CPU가 사용할 법한 대상을 예측하여 저장한다. 이때 자주 사용될 것으로 예측한 데이터가 실제로 들어맞아 캐시 메모리 내 데이터가 CPU에 활용될 경우를 캐시 히트(cache hit)라고 한다.

반대로 자주 사용될 것으로 예측하여 캐시 메모리에 저장했지만, 예측이 틀려 메모리에서 필요한 데이터를 직접 가져와야 하는 경우를 캐시 미스(cache miss)라고 한다. 캐시 미스가 발생하면 CPU가 필요한 데이터를 메모리에서 직접 가져와야 하기 때문에 캐시 메모리의 이점을 활용할 수 없다. 당연히 캐시 미스가 자주 발생하면 성능이 떨어진다.

캐시 적중률(= 캐시가 히트되는 비율)
캐시 히트 횟수 / (캐시 히트 횟수 + 캐시 미스 횟수)
우리가 사용하는 컴퓨터의 캐시 적중률은 대략 85 ~ 95% 이상이다.

 

캐시 메모리는 한 가지 원칙에 따라 메모리로부터 가져올 데이터를 결정한다.

그 원칙은 바로 참조 지역성의 원리이다. 참조 지역성의 원리란 CPU가 메모리에 접근할 때의 주된 경향을 바탕으로 만들어진 원리이다.

  • 시간(temporal) 지역성 : CPU가 최근에 접근했던 메모리 공간을 가까운 미래에 다시 접근하려는 경향
  • 공간(spatial) 지역성 : CPU가 접근한 메모리 공간 근처의 데이터들이 연속적으로 접근될 가능성이 높아지는 경향
순차(sequential) 지역성 : 분기가 발생하지 않는한 명령어들은 기억장치에 저장된 순서대로 인출되어 실행
 
시간 지역성
예를 들어, 프로그래밍 언어에서 변수에 값을 저장하고 나면 언제든 변수에 다시 접근하여 변수에 저장된 값을 사용할 수 있다. 또한 변수에 저장된 값은 일반적으로 한 번만 사용되지 않고 프로그램이 실행되는 동안 여러 번 사용된다. 즉, CPU는 최근에 접근했던 메모리 공간을 여러 번 다시 접근할 수 있다.
ex)반복루프 프로그램, 서브 루틴들은 반복적으로 호출되며 공통 변수들도 빈번히 액세스
공간 지역성
CPU가 실행하려는 프로그램들은 보통 관련 데이터들끼리 한데 모여있다. 가령 메모리 내에 워드 프로세서 프로그램, 웹 브라우저 프로그램, 게임 프로그램이 있다고 가정하면. 이 세 프로그램은 서로 관련 있는 데이터끼리 모여서 저장된다. 그리고 프로그램 내에서도 관련 있는 데이터들은 모여서 저장된다. 워드 프로세서 프로그램에 자동 저장 기능, 입력 기능, 출력기능이 있다고 했을 때 각각의 기능과 관련한 데이터는 모여 저장된다.
ex)표, 배열 데이터
 

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


주소에는 두 가지 종류가 있다.

  • 물리 주소 : 메모리 하드웨어가 사용하는 주소
  • 논리 주소 : CPU와 실행 중인 프로그램이 사용하는 주소

 

물리 주소(physical address)와 논리 주소(logical address)

  • CPU와 실행 중인 프로그램은 현재 메모리 몇 번지에 무엇이 저장되어 있는지 다 알 수 없다(메모리에 저장된 정보는 시시각각 변하기 때문)
  • 물리 주소 : 메모리 입장에서 바라본 주소, 정보가 실제로 저장된 하드웨어 상의 주소를 의미
  • 논리 주소 : CPU와 실행 중인 프로그램 입장에서 바라본 주소, 실행 중인 프로그램에게 부여된 0번지부터 시작되는 주소를 의미

만약 현재 메모리에 메모장, 게임, 웹 브라우저가 적재되어 있다고 가정하면 이러한 프로그램들은 다른 프로그램들이 메모리 몇 번지에 저장되어 있는지(물리주소) 굳이 알 필요가 없다.

그래서 프로그램들은 모두 물리 주소가 아닌 0번지부터 시작하는 자신만을 위한 주소인 논리 주소를 가지고 있다.

예를 들어 10번지라는 주소는 메모장에도, 게임에도, 웹 브라우저에도 논리 주소로써 존재할 수 있다.

 

하지만 CPU가 이해하는 주소가 논리 주소라고 해도 CPU가 메모리와 상호작용하려면 논리 주소와 물리 주소 간의 변환이 이루어져야 한다.

 

논리 주소는 물리 주소로 변환 되려면 메모리 관리 장치(MMU)라는 하드웨어에 의해 수행된다.

 

 

MMU는 CPU가 발생 시킨 논리 주소에 베이스 레지스터 값을 더해 논리 주소를 물리 주소로 변환한다.

베이스 레지스터
베이스 레지스터 값에는 프로그램의 시작주소(즉, 물리 주소상의 시작주소) 값이 담긴다.

예를 들어 현재 베이스 레지스터에 15000이 저장 되어 있고 CPU가 발생시킨 논리 주소가 100번지라면 이 논리 주소는 아래 그림처럼 물리 주소 15100번지(15000+100)로 변환된다.

 

만약 베이스 레지스터에 45000이 저장되어 있고 CPU가 발생시킨 논리 주소가 100번지라면 이 논리 주소는 물리 주소 45100(45000+100)번지로 변환된다.

 

  • 베이스 레지스터는 프로그램의 가장 작은 물리 주소, 즉 프로그램의 첫 물리 주소를 저장하는 셈이고,
  • 논리 주소는 프로그램의 시작점으로부터 떨어진 거리인 셈이다.

 


 

메모리 보호 기법

메모장 프로그램의 물리 주소가 1000번지부터 1999번지, 인터넷 브라우저 프로그램의 물리 주소가 2000번지부터 2999번지, 게임 프로그램의 물리 주소가 3000번지부터 3999번지라고 가정하면, CPU가 메모장 논리 주소 1500번지에 100을 저장하라고 명령을 내렸다면 이 명령어는 실행 되어서는 안 된다.

왜냐하면 메모장 프로그램의 논리 주소 범위는 0부터 999까지이기 때문이다.

이러한 명령어가 실행되면 애꿎은 인터넷 브라우저의 논리 주소상 500번지의 데이터만 바뀌게 될 것이다.

이렇게 다른 프로그램의 영역을 침범할 수 있는 명령어는 위험하기 때문에 논리 주소 범위를 벗어나는 명령어 실행을 방지하고 실행 중인 프로그램이 다른 프로그램에 영향을 받지 않도록 보호할 방법이 필요하다.

이는 한계 레지스터가 담당한다.

베이스 레지스터가 실행 중인 프로그램의 가장 작은 물리 주소를 저장한다면, 한계 레지스터는 논리 주소의 최대 크기를 저장한다.

즉, 프로그램의 물리 주소 범위는 베이스 레지스터 값 이상, 베이스 레지스터 값 + 한계 레지스터 값 미만이 된다.

 

한계 레지스터

  • 프로그램의 영역을 침범할 수 있는 명령어의 실행을 막음
  • 베이스 레지스터가 실행 중인 프로그램의 가장 작은 물리 주소를 저장한다면, 한계 레지스터는 논리 주소의 최대 크기를 저장
  • 베이스 레지스터 값 <= 프로그램의 물리 주소 범위 < 베이스 레지스터 + 한계 레지스터 값

 

CPU는 메모리에 접근하기 전에 접근하고자 하는 논리 주소가 한계 레지스터보다 작은지를 항상 검사한다. 만약 CPU가 한계 레지스터보다 높은 논리 주소에 접근하려고 하면 인터럽트(트랩)를 발생시켜 실행을 중단한다.

 

이러한 방식으로 실행 중인 프로그램의 독립적인 실행 공간을 확보하고 하나의 프로그램이 다른 프로그램을 침범하지 못하게 보호할 수 있다.

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


RAM의 특징

  • RAM에는 실행할 프로그램의 명령어와 데이터가 저장됨
  • 비휘발성 저장장치이기 때문에 전원이 차단되면 저장된 내용이 모두 사라진다.
  • CPU는 SRAM(캐시 메모리)을 먼저 참조하고 원하는 데이터가 없으면 DRAM(주기억장치)을 참조한다.

CPU는 보조기억장치에 직접 접근하지 못하기에 DRAM(주기억장치)에 실행할 프로그램이나 데이터를 적재한다.

그중에서 자주 사용하는 프로그램이나 데이터를 SRAM(캐시 메모리)에 적재한다.

 

RAM의 용량과 성능

  • RAM 용량이 작다면 CPU가 실행하고 싶은 프로그램이나 데이터를 보조기억장치에서 RAM에 적재하는 작업이 잦아질 것이다. 이는 성능 저하로 연결된다.(병목현상)
  • RAM 용량이 크다면 실행하고 싶은 프로그램이나 데이터를 보조기억장치에서 RAM에 적재하는 작업이 줄어들기 때문에 어느 정도 성능향상이 될 것이다.
  • RAM이 크다고해서 RAM용량에 비례해서 성능 향상이 되는 것은 아니다.

 

RAM의 종류

DRAM(Dynamic RAM)

  • 저장된 데이터가 동적으로 변하는(사라지는) RAM
  • 시간이 지나면 저장된 데이터가 점차 사라진다.
  • 데이터의 소멸을 막기 위해 일정 주기로 데이터를 재활성화(다시 저장)해야 한다.
  • 소비 전력이 낮고, 저렴하고, 집적도가 높기 때문에 대용량으로 설계하기 용이하기 때문에 일반적으로 주기억장치에 쓰인다.
집적도
"집적도가 높다"는 말은 "더 작고 빽빽하게 만들 수 있다"는 뜻이다.

 

 

SRAM(Static RAM)

  • 저장된 데이터가 정적인(사라지지 않는) RAM
  • 전원이 차단되지 않는다면 저장된 데이터가 사라지지 않는다.
  • 일반적으로 SRAM이 DRAM보다 빠르다.
  • 소비 전력이 높고, 비싸고, 집적도가 낮기 때문에 대용량으로 만들어질 필요는 없지만 속도가 빨라야 하는 저장장치에 사용된다.
  • 보통 캐시 메모리에 사용된다.

 

 

SDRAM(Synchronous Dynamic RAM)

  • SRAM과 관계가 없는 클럭 신호와 동기화된, 발전된 형태의 DRAM이다.
  • 클럭 타이밍에 맞춰 동작하며 클럭마다 CPU와 정보를 주고받을 수 있다.

 

DDR SDRAM(Double Data Rate SDRAM)

  • 대역폭을 넓혀 속도를 빠르게 만든 SDRAM이다.
  • SDRAM에 비해 대역폭이 두 배가량 증가하였다. 즉, 한 클럭당 두 배의 데이터를 주고받을 수 있다.
  • 이러한 이유 때문에 단순 SDRAM을 SDR SDRAM(Single Data Rate SDRAM)이라고 부른다.

  • DDR2 SDRAM은 DDR SDRAM보다 대역폭이 두 배 넓은 SDRAM이다. 즉, SDR SDRAM보다 대역폭이 4배 넓다.
  • DDR3 SDRAM은 DDR2 SDRAM보다 대역폭이 두 배 넓은 SDRAM이다. 즉, SDR SDRAM보다 대역폭이 8배 넓다.
  • DDR4 SDRAM은 DDR3 SDRAM보다 대역폭이 두 배 넓은 SDRAM이다. 즉, SDR SDRAM보다 대역폭이 16배 넓다.

 

이 글은 혼자 공부하는 컴퓨터 구조 + 운영체제 (저자 : 강민철)의 책과 유튜브 영상을 참고하여 개인적으로 정리하는 글임을 알립니다.


세상에는 수많은 CPU 제조사들이 있고, CPU마다 규격과 기능들이 모두 달라서 CPU가 이해하고 실행하는 명령어들은 모두 같지가 않다.

기본적인 명령어의 구조와 작동원리는 비슷하지만 명령어의 세세한 생김새, 주소 지정 방식등은 CPU마다 차이가 있다.

CPU가 이해할 수 있는 명령어들의 모음을 명령어 집합(Instruction Set) 또는 명령어 집합 구조(ISA : Instruction Set Architecture)라고 한다.

즉, CPU마다 ISA가 다르다는 것이다.

인텔의 노트북 CPU는 x86 또는 x86-64 ISA를 이해하고, 애플의 아이폰 CPU는 ARM ISA를 이해한다.
같은 소스코드로 만들어진 같은 프로그램이라 할지라도 ISA가 다르면 CPU가 이해할 수 있는 명령어도 어셈블리어도 달라진다.
따라서 같은 명령어라도 한쪽에선 정상작동하지만 다른 한쪽에선 정상작동이 안될 수 있다는 것이다.

 

여러 ISA중에서도 CPU의 성능을 향상시킬 수 있는 방법인 명령어 병렬 처리기법(명령어 파이프라인, 슈퍼스칼라, 비순차적 명령어)을 적용하기 유리한 ISA는 현대 ISA의 양대 산맥인 CISC와 RISC가 있다.

 


 

CISC(Complex Instruction Set Computer)

CISC는 다양하고 강력한 기능의 명령어 집합을 활용하기 때문에 명령어의 형태와 크기가 다양한 가변 길이 명령어를 사용한다.

이는 상대적으로 적은 수의 명령어로도 프로그램을 실행할 수 있다는 것이다.

이런 장점 때문에 메모리를 최대한 아끼며 개발해야했던 시절에는 인기가 많았지만, 활용하는 명령어가 복잡하고 다양한 기능을 제공하기 때문에 명령어의 크기와 실행되기까지의 시간이 일정하지 않다.

또한 복잡한 명령어 때문에 명령어 하나를 실행하는 데에 여러 클럭주기를 필요로 한다.

이는 명령어 파이프라이닝에 큰 어려움을 가져다 준다.

명령어 파이프라이닝이 비교적 힘들다는 것이 CISC의 가장 큰 약점이다.

추가적으로 CISC가 복잡하고 다양한 명령어를 사용할 수 있지만, 대다수의 복잡한 명령어는 사용 빈도가 낮기 때문에 CISC의 전체 명령어중 20%가 사용된 전체 명령어의 80%정도를 차지한다는 연구결과도 있다.

현대의 CISC
명령어 파이프라이닝은 현대 CPU에서는 놓쳐서는 안될 중요한 기술이기 때문에
CPU 내부에서 CISC의 명령어를 쪼개서 파이프라이닝을 가능하게 한다.

 


 

RISC(Reduced Instruction Set Computer)

CISC가 준 교훈은 아래와 같다.

  • 원활한 파이프라이닝을 위해 명령어의 길이와 수행 시간이 짧고 규격화 되어 있어야 한다.
  • 자주 쓰이는 명령어만 줄 곧 사용된다. 복잡한 기능을 지원하는 명령어 보다는 자주 쓰이고 기본적인 명령어를 작고 빠르게 만다는 것이 중요하다.

이런 원칙 하에 등장한 것이 RISC이다.

RISC는 CISC보다 명령어의 종류가 적고, 규격화된 명령어, 되도록 1클럭 내외로 실행되는 명령어를 지향한다.

즉, 짧고 규격화된 고정 길이 명령어를 사용한다.

이러한 점으로 인해 명령어 파이프라이닝에 최적화 되어있다.

추가적으로 메모리에 직접 접근하는 명령어를 load, store 두 개로 제한할 만큼 메모리 접근을 최소화하고 CISC보다 주소 지정 방식의 종류가 적다. 메모리 접근을 최소화 한 만큼 레지스터를 적극적으로 사용한다.

레지스터를 이용하는 연산이 비교적 많고, 범용 레지스터의 개수 또한 더 많다.

사용 가능한 명령어의 개수가 CISC보다 적기 때문에 더 많은 명령어로 프로그램을 작동시킨다.