CS - 운영체제(2)

 

1. CPU Scheduling 들어가기 전

1) CPU burst, IO burst(앞 강의 내용)

a. CPU burst, IO burst 개념

  • Process를 실행하면, CPU 가 사용되는 부분이 있고, IO 가 사용되는 부분이 있음.
  • CPU를 사용하는 단계를 CPU burst, IO 를 사용하는 단계를 IO burst 라고 함.
  • process 가 실행된다는 것은, CPU burst 와 IO burst 를 반복하며 실행한다는 것.


b. 표에서 CPU burst, IO burst

  • 위의 표에서 x 축은 CPU burst 실행 시간, y 축은 빈도

  • 컴퓨터 내에서 돌아가는 process 들을 살펴봤더니,

  • CPU burst 가 짧고 IO burst 가 자주 끼어드는 process 들도 있고, CPU burst 가 긴 process 도 있음.


  • CPU 를 짧게 쓰고 IO 를 주로 쓰는 작업을 IO bound job,

  • CPU 를 오랫동안 쓰는 작업을 CPU bound job 이라고 함.

  • “IO/CPU 를 주로 사용하는 process job 의 종류가 위와 같이 섞여 있다” 정도로만 이해하고 넘어가면 될 듯.


c. CPU burst, IO burst의 결론 :

  • 사람과 상호작용하는 job (interactive job) 이 IO bound job 인 경우가 많음.

  • 왜냐면 모니터에 출력도 해야하고 사용자로부터 입력도 받아야 하니까. 때문에 사용자 입장에서 오랫동안 기다리지 않게 하기 위해

  • CPU 를 IO bound job 에게 자주 주는 것이 좋다는 교수님의 말.

  • 따라서 IO bound job 에 CPU 를 자주 주도록 CPU 스케줄링이 필요하다는 것이 결론.



2) CPU Scheduler 개념


a. CPU Scheduler

  • 어떤 process 에게 CPU 를 줄 지 선택하는 녀석!!

  • ready 상태인 process 중에 한 녀석을 골라 CPU 를 줄꺼야.

  • CPU scheduler 는 os 내부의 CPU 를 스케줄링하는 커널 코드이다.


b. Dispatcher

  • CPU Scheduler 가 CPU 를 줄 process 를 선택하면, 해당 process 에게 CPU 제어권을 실제로 넘겨주는 녀석

  • Dispatccher 가 CPU 제어권을 넘기는 이 작업을 context switching 이라고 함.

  • Dispatcher 역시 CPU Scheduler 처럼 os 내부의 kernel code를 말 함.



3) CPU 스케줄링이 필요한 경우 예시 및 정리

  • CPU 스케줄링이 필요한 경우(CPU 를 잡는 프로세스가 바뀌는 경우)를 몇 가지 예시로 들어봄.


a. Process 가 IO 요청하는 경우.

  • process 가 IO 를 요청했기 때문에 CPU 를 사용하지 못하는 상황(시간이 오래 걸리기 때문이다. )


b. Timer interrupt 가 걸린 경우.

  • CPU 신나게 쓰고 있다가 시간이 다 되어서 CPU 를 돌려줘야 하는 상황


c. 요청했던 IO 응답이 와서 CPU 를 사용해야 하는 상황

  • 배우기로는 IO 응답이 와도 곧바로 CPU 를 사용하는게 아니라 ready 상태가 된다고 배웠는데, CPU 를 곧바로 사용하여 running 상태가 되는 경우도 있음.

  • 바로, IO 응답받은 process 의 우선순위가 기존에 CPU 를 잡고 있던 process 보다 높을 때.

  • 우선순위가 높은 process(IO 응답받은 녀석) 에게 CPU 를 양호하는 상황이 벌어짐.

  • 즉, 우선순위가 높은 process 에게 CPU 를 빼앗기는 경우**


d. process 가 일을 다 마치고 terminated 되는 경우, 더 이상 CPU 를 사용하지 않지.


e. 정리 : 용어가 매우 중요하다!

  • 위의 a, b 예시인 경우는 “자신이 자발적으로 CPU 를 반납하는 상황”, nonpreemptive(강제로 빼앗지 않는 용어)라고 하고,

  • c, d 예시인 경우는 “CPU 를 반납하고 싶지 않지만 강제로 빼앗기는 상황”, preemptive(강제로 빼앗는 용어) 라고 함.




2. CPU Scheduling 시작(본 강의 내용)

1) CPU and I/O Bursts in Program Execution



a. CPU-burst Time의 분포

  • 여러 종류의 job(process)들이 섞여있기 때문에 CPU 스케줄링이 필요하다.
    • Interactive job에게 적절한 response 제공 요망
    • CPU와 I/O 장치 등 시스템 자원을 골고루 효율적으로 사용


b. 프로세스의 특성 분류


  • I/O- bound process
    • CPU를 잡고 계산하는 시간보다 I/O에 많은 시간이 필요한 job
    • Many short CPU bursts


  • CPU-bound process
    • 계산 위주의 job
    • Few very long CPU bursts


c. CPU Scheduler & Dispatcher

  • 운영체제의 특정 기능임


  • CPU Scheduler
    • Ready 상태의 프로세스 중에서 이번에 CPU를 줄 프로세스를 고른다
  • Dispatcher
    • CPU의 제어권을 CPU scheduler에 의해 선택된 프로세스에게 넘긴다
    • 이 과정을 context switch(문맥 교환)라고 한다.
  • CPU 스케줄링이 필요한 경우는 프로세스에게 다음과 같은 상태변화가 있는 경우이다.
    • Running → Blocked(e.g. I/O 요청하는 시스템 콜)
    • Running → Ready(e.g. 할당시간 만료로 timer interrupt)
    • Blocked → Ready(e.g. I/O 완료 후 인터럽트)
    • Terminate
  • 정리 :
    • 예시일뿐 더 많은 케이스가 있을 수도
    • 1번과 4번의 경우는 nonpreemptive(= 강제로 빼앗지 않고 자진 반납) / 비선점형
    • 나머지 모든 스케줄링은 preemptive(= 강제로 빼앗음) / 선점형


d. Scheduling Criteria

  • Performance Index ( = Performance Measure, 성능 척도)
  • 위의 2가지는 CPU입장, 밑의 3가지는 프로세스 입장
  • 프로세스 전체의 시작과 종료 기준이 아니라 프로세스가 CPU를 잡는 시간 기준(버스트 기준) 이라는 것에 유의


  • CPU utilization 이용률
    • keep the CPU as busy as possible


  • Throughput 처리량
    • number of prcesses that complete their excution per time unit


  • Turnaround time 소요시간, 반환시간
    • amount of time to excute a particular process


  • Waiting time 대기시간
    • amount of time a process has been waiting in the ready queue


  • Response time 응답시간
    • amount of time it takes from when a request was submitted until the first response is produced, not output(for time-sharing environment)


2) Scheduling Algoritm

  • FCFS
  • SJF
  • SRTF
  • Priority Scheduling
  • RR
  • Multilevel Queue
  • Mutilevel Feedback Queue


a. FCFS(First-Come First-Served)

  • 비선점형(unpreemptive)


b. SJF(Shortes-Job-First)

  • 각 프로세스의 다음번 CPU burst time을 가지고 스케쥴링에 적용
  • CPU burst time이 가장 짧은 프로세스를 제일 먼저 스케쥴


  • 두가지 스키마(Scheme)


  • Nonpreemptive
    • 일단 CPU를 잡으면 이번 CPU burst가 완료될 때까지 CPU를 선점(premmption)당하지 않음


  • Preemptive
    • 현재 수행중인 프로세스의 남은 burst time보다 더 짧은 CPU burst time을 가지는 새로운 프로세스가 도착하면 CPU를 빼앗김
    • 이 방법을 Shortest-Remaining-Time-First(SRTF)라고도 부른다.


  • SJF is optimal
    • 주어진 프로세스들에 대해 minimun average waiting time을 보장 → 모든 알고리즘 중에서 가장 짧은 waiting time을 보장한다.


  • 단점
    • starvation → Long process가 영원히 실행되지 않을수도 있다.
    • 프로그램의 정확한 사용시간을 미리 알수가 없으므로 추정을 해야함.


c. Priority Scheduling


  • A priority number(integer) is associated with each process
  • highest priority를 가진 프로세스에게 CPU 할당
    • Preemptive
    • nonpreemptive


  • (smallest integer - highest priority)
  • SJF는 일종의 priority scheduling이다.
  • priority = predicated next CPU burst time


  • 문제점
    • Starvation(기아 현상): low priority processes may nver execute


  • 해결방법
    • Aging: as time progresses increase the priority of the process


d. RR(Round Robin) - 현대의 운영체제가 사용하는 방법

  • 각 프로세스는 동일한 크기의 할당시간(time quantum)을 가짐
  • (일반적으로 10-100 milliseconds)
  • 할당 시간이 지나면 프로세스는 선점(preemted)당하고 ready queue의 제일 뒤에가서 다시 줄을 선다.


  • n개의 프로세스가 ready queue에 있고 할당 시간이 q time unit인 경우 각 프로세스는 최대 q time unit단위로 CPU 시간의 1/n을 얻는다. → 어떤 프로세스도 (n-1)q time unit 이상 기다리지 않는다.


  • 장점: 응답시간이 빨라진다.(최초로 CPU를 얻게되는 시간)
  • 단점: 특정조건에서는 오히려 비효율적임(모든 프로세스의 실행시간이 동일한경우??)
  • 턴어라운드, 웨이팅타임이 악화될 수도 있음.


  • Performance
  • q large → FCFS
  • q small → context switch 가 빈번해져 overhead의 부담


e. Multilevel Queue


  • Ready Queue를 여러개로 분할
  • foreground(interactive)
  • background(batch - no human interaction)


  • 각 큐는 독립적인 스케쥴링 알고리즘을 가짐
  • foreground - RR
  • background - FSFS


  • 개별 큐에 대해서도 스케쥴링이 필요
    • Fixed priority scheduling(우선순위로 고정)
      • serve all from foreground then from background
      • Possibility of starvation


  • Time slice(시간단위로 분배)
    • 각 큐에 CPU time을 적절한 비율로 할당
    • e.g. 80% to foreground in RR, 20% to background in FCFS


f. Multilevel Feedback Queue

  • 프로세스가 다른 큐로 이동 가능
  • 에이징(aging)을 이와 같은 방식으로 구현할 수 있다(오래되면 프로세스를 다른 큐로 이동 시켜서)


  • Multilevel-feedback-queue를 정의하는 파라미터들
    • Queue의 수
    • 각 Queue의 Scheduling algorithm
    • Process를 상위 큐로 보내는 기준
    • Process를 하위 큐로 내쫓는 기준
    • 프로세스가 CPU 서비스를 받으려 할 때 들어갈 큐를 결정하는 기준


3) Multiple-Processor Scheduling

  • CPU가 여러개인 경우 스케쥴링은 더욱 복잡해짐


  • Homogeneous processor인 경우
    • Queue에 한줄로 세워서 각 프로세서가 알아서 꺼내가게 할 수 있다.
    • 반드시 특정 프로세서에서 수행되어야 하는 프로세스가 있는 경우에는 문제가 더 복잡해짐


  • Load Sharing
    • 일부 프로세서에 job이 몰리지 않도록 부하를 적절히 공유하는 메커니즘 필요
    • 별개의 큐를 두는 방법 vs 공동 큐를 사용하는 방법


  • Symmetric Multiprocessing(SMP)
    • 각 프로세서가 각자 알아서 스케쥴링 결정


  • Asymmetric Multiprocessing
    • 하나의 프로세서가 시스템 데이터의 접근과 공유를 책임지고 나머지 프로세서는 거기에 따름


4) Real-Time Scheduling

  • periodic한 성격의 작업이 많다.


  • Hard real-time systems
    • Hard real-time task는 정해진 시간 안에 반드시 끝내도록 스케줄링해야 함 → 데드라인내 실행이 보장되어야함


  • Soft real-time computing
    • Soft real-time task는 일반 프로세스에 비해 높은 priority를 갖도록 해야함


5) Thread Scheduling


  • Local Scheduling
    • User level thread의 경우 사용자 수준의 thread library에 의해 어떤 thread를 스케쥴 할지 결정(유저용)


  • Global Scheduling
    • Kernel level thread의 경우 일반 프로세스와 마찬가지로 커널의 단기 스케줄러가 어떤 thread를 스케줄 할지 결정(커널용)


6) Algorithm Evaluation


a. Queueing models

  • 확률 분포로 주어지는 arrival rate와 service rate 등을 통해 각종 performance index 값을 계산


b. Implementation(구현) & Mesurement(성능 측정)

  • 실제 시스템에 알고리즘을 구현하여 실제 작업(workload)에 대해서 성능을 측정 비교 → 운영체제 코드를 실제로 고쳐보는 것(어려움)


c. Simulation(모의 실험)

  • 알고리즘을 모의 프로그램으로 작성 후 trace(시뮬레이션 프로그램의 입력값으로 들어갈 테스트케이스?)를 입력으로 하여 결과 비교


7) 다음 CPU Burst Time의 예측


  • 다음번 CPU burst time을 어떻게 알 수 있는가?
    • (Input data, branch, user)


  • 추정(estimate)만이 가능하다
  • 과거의 CPU burst time을 이용해서 추정 (exponential averaging)



8) 최종 정리

  • CPU 가 하나인 상황에서의 스케줄링 기법


a. FCFS : First Come, First Served

  • 먼저 온 순서대로 먼저 처리함. 무슨 process 인지, 우선순위가 어떤지도 따지지 않고 그냥 먼저 오는 순으로 처리. 이것은 nonpreemptive 스케줄링임. 즉, CPU 를 갖게 되면 자발적으로 내려놓지 않는 이상 CPU 를 빼앗기지 않음. 이것은 비효율적임. CPU 를 길게 쓰는 IO Bound 가 먼저 와서 CPU 점유해버리면 나중에 온 CPU Bound 잡들이 계속 기다리게 되기 때문에 비효율적임. 이렇게 긴 job 때문에 짧은 job 들이 큐에서 기다리는 현상을 Convoy Effect 라고 함.


b. SJF : Shortest Job First

  • 실행 시간이 짧은 Job 부터 처리함. 스케줄링 기법 중 Job들의 평균 대기 시간(Average Waiting Time) 이 가장 짧음. 근데 긴 Job 이 영원히 기다릴 수 있음(이것을 starvation 현상이라고 함)

  • preemptive 버전과 nonpreemptive 버전이 있음.

  • preemptive 버전은, 짧은 job이 CPU 점유하고 있는 와중에 더 짧은 job이 오면 CPU 를 빼앗김.

  • nonpreemptive 버전은 빼앗기지 않고 다 끝낸 다음에 가장 짧은 job이 CPU 를 얻음.



c. Priority

  • 우선순위가 제일 높은 Process 먼저 CPU 를 줌. 이 역시 preemptive 버전과 nonpreemptive 버전이 있음.

  • 또한, starvation 현상 역시 발생 가능. starvation 을 방지하기 위해, Aging 이라는 기법을 사용.

  • 우선 순위가 낮은 Process 가 순서를 빼앗기면서 오래오래 기다리게 되면, 오래 기다린 만큼 우선 순위가 올라가서 CPU 를 점유할 수 있도록 기법.



d. Round Robin

  • 위의 스케줄링에서는 preemptive 가 아닌 이상에야 job 이 끝날 때 까지 CPU 를 선점하지만, RR 은 CPU 를 줄 때 정해진 시간 만큼만 줘서 job 이 끝나지 않았음에도 CPU 를 강제로 빼앗음(preemptive)

  • process 들이 CPU 를 최초로 얻기까지 걸리는 시간인 ‘응답시간 response time’ 이 빨라짐. 왜냐면 CPU 를 조금씩 줬다 빼앗었다 하기 때문에. CPU 를 나눠주는 기준은? 모든 Process 에게 균등하게 기회를 한 번씩 주나봄. 그러면, FCFS 의 time preemptive 버전이라고 볼 수 있을까? 그렇다.

  • RR 의 특징 중 하나는, CPU 를 길게 쓰는 process 는 기다리는 시간이 길고 (CPU 기다리는 횟수가 많음) CPU 를 짧게 쓰는 process 는 기다리는 시간이 짧음 (CPU 기다리는 횟수 적음)

  • 왜냐면 짧은 process 들은 n만큼 기다렸다가 CPU 할당받고 금방 쓰고 나가는데 긴 process 들은 n만큼 기다렸다가 CPU 할당받고 쓰고 빼앗기는 일을 여러번 반복해야 하기 때문에.

  • CPU 를 점유하는 시간을 q 라고 하자. q를 길게 하면 할수록 FCFS 와 똑같아지고(Convoy Effect) q를 짧게 하면 CPU 점유하는 process 간 context switching 이 계속 일어나기 때문에 시스템 전체 성능이 떨어짐. 결국, 적당한 q 가 좋음 ( 대략 10~100 ms 라고 함 )

  • SJF 보다 average turnaround time 이 길지만 response time (최초로 CPU 를 받는 데 걸리는 시간) 은 짧다. 응답 시간이 짧다는 것이 중요한 장점!

  • 실행 시간이 모두 100s 로 똑같은 job 이 5개가 있다고 하자. RR 의 q가 1초라면, 5개의 job 들은 1초씩 번갈아가며 CPU 를 할당받다가, 500초가 될 때 5개의 job 들이 차례대로 끝이 나게 된다.

  • 이 말은, 500초 동안 어떤 job들도 끝나지 않는다는 말. 차라리 q를 100으로 두어서, 100초에 job 하나 끝내고, 200초에 job 하나 끝내고… 하는 편이 먼젓번의 예보다는 나음. 일반적으로는 긴 process 와 짧은 process 가 섞여있기 때문에 위의 일이 많이 일어나지 않음 이런 특수한 상황도 있다는 걸 알아두자.



e. Multilevel Queue

  • Multilevel Queue 는 우선순위가 각기 다른 레디큐를 여러개 두는 것임. 위에 이미지에서 보는 것 처럼, 가장 위에 system 이 1순위, 그 다음 interactive 가 2순위, ,,, 마지막 student 가 5순위임. 이렇게 계급별로 나눠진 큐에 각 process 들이 들어가서 기다림. CPU 는 하나뿐이기 때문에, 1순위 큐에 있는 process 들이 먼저 CPU 를 사용함. 1순위 큐가 비면 2순위 큐의 process 들이 CPU 를 사용하고…. 이렇게 큐의 계급을 따라서 CPU 를 사용하게 됨.

  • 여기서 우선순위의 기준은 무엇인가? 또한, 하나의 큐에서 CPU 를 사용하는 기준은 또 무엇인가? 전자와 후자의 기준은 상황에 따라 다를 수 있음. process 들은 전자의 기준에 따라 들어가는 큐가 달라지게 될 것임. 여기서 말하는 상황이라는 것을 아래 예를 들어 이해해보자.

  • 두 개의 큐 (foreground, background) 가 있다고 하자. 이 두 개의 큐의 우선순위는 foreground 가 높다. forground 큐에서 process 를 선출할 때는 RR 방식을 이용(왜냐면 interactive 한 process 이기 때문에 응답 시간이 빨라야 하므로) background 큐에서 process 를 선출할 때는 FCFS 방식을 이용(왜냐면 batch job 이라서 응답시간이 빠를 필요없이 천천히 진행해도 괜찮기 때문)

  • 근데 forg 에 process 가 계속 쌓이면 우선순위가 낮은 backg 내의 process 들이 영원히 처리되지 않는 startvation 현상이 빚어질 수 있기 때문에, time slice 를 둠. 8:2 로 두어서, 적어도 단위 시간의 20%는 backg 가 쓸 수 있도록 함.




  • CPU 가 여러개일 때의 스케줄링 기법


a. Real-Time Scheduling

  • Hard Real-Time system : 반드시 정해진 시간 내에 task 를 끝내도록 스케줄링해야 함. 정해진 task 처리 시간을 넘기면 실패하는 경우 (자동차의 air-bag 등)

  • Soft Real-Time system : 일반 프로세스에 비해 높은 priority 를 갖고 task 를 실행함. 정해진 task 처리 시간을 넘기면 성능이 감소하는 경우 (streaming video 등)

  • (그래서 최대한 빨리 끝낼 수 있도록. dead line 이 있긴 하지만 조금 넘어도 상관 없음)

  • 이벤트가 발생하고 나서부터 응답 할 때까지의 시간을 Event Latency 라고 함


b. Thread Scheduling

  • User level thread : process 내부에서만 thread 의 존재를 알고 있음. 커널은 몰라. 사용자 process 가 직접 thread 를 관리.

  • Kernel level thread : 커널이 process 내부의 thread 존재를 알고 있음.


  • Local Scheduling : 사용자 Process 가 CPU 를 잡고 있을 때, Process 가 직접 어떤 thread 에게 CPU 를 나눠줄지 스케줄링하는 것. 커널은 이 Process 에게 CPU 만 줄 뿐 thread 관리 측면에서는 전혀 손대지 않음.

  • Global Scheduling : 커널이 thread 의 존재를 알고 있고 직접 thread 를 관리하고 CPU 스케줄링함. 커널이 특정 스케줄링에 의해 Process 에게 CPU 주듯이 thread 에게도 특정 스케줄링에 의해 CPU 를 나눠줌.




3. Process Syschronization

  • 데이터의 접근


1) Race Condition

  • a. 공유 메모리를 사용하는 프로세스들
  • b. 커널 내부 데이터를 접근하는 루틴들 간(시스템콜)


a. OS에서 언제 Race Condition이 발생하는가?

  • a. Kernel 수행 중 인터럽트 발생 시, inturrupt를 disable시켜서 해결. 순차적으로 하도록!

  • b. Process가 System call을 하여 Kernel mode로 수행중인데 context switch가 일어나는 경우

  • c. Multiprocessor에서 shared memory 내의 kernel data



b. Process Synchronization 문제

  • 공유데이터 shared data의 동시 접근 concurrent access는 데이터의 불일치 문제 inconsistency를 발생시킬 수 있다. 일관성 consistency 유지를 위해서는 협력 프로세스 cooperating process 간의 실행 순서 orderly execution를 정해주는 매커니즘 필요


c. Race Condition

  • 여러 프로세스들이 동시에 공유 데이터를 접근하는 상황
  • 데이터의 최종 연산 결과는 마지막에 그 데이터를 다룬 프로세스에 따라 달라짐
  • Race condition을 막기 위해서는 concurrent process는 동기화 Sycnhronize되어야 한다

  • Example of a Race Condition
  • 보통은 문제가 안생기지만, 공유데이터에 접근하는 등의 위의 예에서는 문제가 될 수도 있다.


2) The Critical-Section Problem

  • Critical-Section = 임계구역

  • n개의 프로세스가 공유 데이터를 동시에 사용하기를 원하는 경우 각 프로세스의 code segment에는 공유데이터를 접근하는 코드인 critical section이 존재
  • Problem
    • 하나의 프로세스가 critical section에 있을 때 다른 모든 프로세스는 critical section에 들어갈 수 없어야 한다

→ 이 문제를 어떻게 해결할까? 를 고민하는 챕터



a. Initial Attempts to Solve Probelm

  • 두개의 프로세스가 있다고 가정
  • 프로세스들의 일반적인 구조
do {
	entry section
	ciritical section
	exit section
	remainder section
} while (1);

  • 프로세스들은 수행의 동기화(synchronize)를 위해 몇몇 변수를 공유할 수 있다 → synchronization variable


b. 프로그램적 해결법의 충족조건


  • Mutual Exclusion(상호 배제)
    • 프로세스 Pi가 critical section 부분을 수행 중이면 다른 모든 프로세스들은 그들의 critical section에 들어가면 안된다.


  • Progress
    • 아무도 critical section에 있지 않은 상태에서 critical section에 들어가고자 하는 프로세스가 있으면 critical section에 들어가게 해주어야 한다.


  • Bounded Waiting(유한대기)
    • 프로세스가 critical section에 들어가려고 요청한 후부터 그 요청이 허용될 때까지 다른 프로세스들이 critical section에 들어가는 횟수에 한계가 있어야 한다.


  • 가정:
    • 1) 모든 프로세스의 수행속도는 0보다 크다
    • 2) 프로세스들 간의 상대적인 수행속도는 가정하지 않는다


  • 코드로 작성된 문장의 고급언어이기 때문에 단일 instruction이 아니라서 CPU를 빼앗길 수 있는 상황을 가정


3) Algorithm 모음


a. Algorithm 1

  • 문제점: Progress를 충족 못함
  • 설명 :


b. Algoritm 2

  • 설명 :


c. Algoritm 3 (Peterson’s Algoritm)

  • 설명 :

  • 턴과 플래그를 모두 사용
  • 상대방이 깃발과 턴을 모두 가지고있지 않을때만 대기하고 있음
  • 문제점: Busy Waiting(=spin lock) / 계속 CPU와 메모리 자원을 쓰면서 기다린다.


4) Synchronization Hardware

  • 하드웨어적으로 Test & Modify를 atomic(intruction 단위로 끊어)하게 수행할 수 있도록 지원하는 경우 앞의 문제는 간단히 해결된다.


a. Semaphores


  • 앞의 방식들을 추상화시킴
    • 추상자료형(object, operation) → 더 알아보기


  • Semaphore S
    • integer variable
    • 아래의 두가지 automic 연산에 의해서만 접근 가능


a) Busy Wait
  • Critical Section of n Processes By Semaphore - Spin Lock

  • 단점: Spin Lock
  • Block & Wakeup 방식의 구현도 가능 (=sleep lock)


b) Block & Await
  • Critical Section of n Processes By Semaphore - Block & WakeUp
  • 구체적인 구현(block/wakeup)
  • P: 자원반출 / V: 자원반납


c) 어떤 방식이 더 나을까? (busy wait vs block wakeup)


  • Block/wakeup overhead versus Critical Section의 길이
    • Critical section의 길이가 긴 경우 Block Wakeup이 적당
    • Critical section의 길이가 매우 짧은 경우 Block/Wakeup 오버헤드가 Busy-wait오버헤드보다 더 커질 수 있음
    • 일반적으로는 Block/WakeUP 방식이 더 좋음


d) 두가지 타입의 세마포어


  • Counting semaphore
    • 도메인이 0 이상인 임의의 정수값
    • 주로 resource counting에 사용
  • Binary semaphore(=mutex)
    • 0 또는 1 값만 가질 수 있는 semaphore
    • 주로 mutual exclusion (lock/unlock)에 사용


5) Deadlock and Starvation의 문제


  • Deadlock: 둘 이상의 프로세스가 서로 상대방에 의해 충족될 수 있는 event를 무한정 기다리는 현상
  • S와 Q가 1로 초기화된 semaphore라 했을때,


  • Starvation
    • Indefinite blocking: 프로세스가 suspend된 이유에 해당하는 세마포어 큐에서 빠져나갈 수 없는 현상
    • 식사하는 철학자 문제(데드락 문제도 발생할수 있음! 생각해보자)
    • Dining-Philosophers Problem
    • 해결방법 : 자원의 획득 순서를 정의해주면 된다.(프로그래머가 유의해서 작성해야 할 문제임)


a. Bounded-Buffer Problem(생산자-소비자 문제)


  • 버퍼의 크기가 유한한 환경에서
  • 생산자 프로세스, 소비자 프로세스가 각각 여러개 있는 상황
  • 버퍼가 가득 찼을때는 생산자도 버퍼에 데이터를 쓰지 못함
  • 세마포어의 역할이 2가지
    • 동시 접근을 방해하기 위해(전체버퍼에 대한 접근을 막는건가?)
    • 가용자원을 표시하기 위해(생산자: 비어있는 버퍼, 소비자: 내용이 있는 버퍼)


  • Synchronization Variables
    • semaphore full = 0, empty = n, mutex = 1
//Producer
do { 
	...
	produce an item in x
	...
	P(empty);
	P(mutex):
	...
	add x to buffer
	V(mutex);
	V(full);
} while (1);
 
//Consumer
 
do { 
	P(full);
	P(mutex):
	...
	remove an item from buffer to y
	...
	V(mutex);
	V(empty);
	...
	consume the item in y
	...
} while (1);


b. Readers-Writers Problem


  • 한 프로세스가 DB에 write 중일 때, 다른 프로세스가 접근하면 안됨
  • read는 동시에 여럿이 해도 됨


  • 해결책
    • Writer가 DB에 접근 허가를 아직 얻지 못한 상태에서는 모든 대기중인 Reader들을 다 DB에 접근하게 해준다. W- riter는 대기 중인 Reader가 하나도 없을 때 DB접근이 허용된다
    • 일단 Writer가 DB에 접근 중이면 Reader들은 접근이 금지된다
    • Writer가 DB에서 빠져나가야만 Reader의 접근이 허용된다


  • Shared data
    • DB 자체
    • readcount; (현재 DB에 접근 중인 Reader의 수)


  • Synchronization variables
    • mutex: 공유변수 readcount를 접근하는 코드(critical section)의 mutual exclusion 보장을 위해
    • db: Reader와 Writer가 공유 DB자체를 올바르게 접근하는 역할
/*
Shared data 
- int readcount = 0;
- DB 자체
Synchronization variables
- semaphore mutex = 1, db = 1
*/
 
//Writer
P(db);
...
writing DB is performed
...
V(db);
// Starvation 발생 가능
 
//Reader
P(mutex); // 공유변수 lock
readcount++;
if (readcount == 1) P(db); /* block writer */
V(mutex);
    ...
reading DB is performed
    ...
P(mutex);
readcount--;
if (readcount == 0) V(db); /* enable writer */
V(mutex):


  • Starvation을 어떻게 해결해야 하나?
    • Writer의 차례를 한번씩 주는걸로 해결할 수 있다.


c. Dining-Philosophers Problem

  • Synchronization Variables
  • semaphore chopstick[5] (모든 처음 값은 1]
  • Philosopher i
do {
	P(chopstick[i]);
	P(chopstock[(i+1) % 5]);
	...
	eat();
	...
	V(chopstick[i]);
	V(chopstick[(i+1) % 5]);
	...
	think();
	...
} while (1);


  • 위 코드의 문제점 :
    • Deadlock 가능성이 있다.
    • 모든 철학자가 동시에 배가 고파져 왼쪽 젓가락을 집어버린 경우


  • 해결방안 :
    • 4명의 철학자만이 테이블에 동시에 앉을 수 있도록 한다
    • 젓가락을 두개 모두 집을 수 있을 때에만 젓가락을 잡을 수 있게
    • 비대칭 : 짝수 철학자는 왼쪽 젓가락부터 잡도록, 홀수는 오른쪽 부터

enum { thinking, hungry, eating } state[5];
semaphore self[5]=0 ;
semaphore mutex=1;
 
Philosopher i
do { 
  pickup(i);
  eat();
  putdown(i);
  think();
} while(1);
 
void putdown(int i) {
  P(mutex);
  state[i] = thinking;
  test((i+4) % 5);
  test((i+1) % 5);
  V(mutext);
}
 
void pcickup(int i) {




4. DeadLock


1) The Deadlock Problem


a. DeadLock

  • 일련의 프로세스들이 서로가 가진 자원을 기다리며 block된 상태


b.Resource(자원)

  • 하드웨어, 소프트웨어 등을 포함하는 개념
  • ex) I/O Device, CPU cycle, memory space, semaphore 등
  • 프로세스가 자원을 사용하는 절차(요청, 할당, 사용, 반납)
    • Request, Allocate, Use, Release


c. 데드락 예시

  • 시스템에 2개의 테이프 드라이버가 있는데, 프로세스 P1과 P2가 각각 하나의 테이프 드라이버를 보유한 채 다른 하나를 기다리고 있을 때
  • Binary semaphores A and B



2) Deadlock 발생의 4가지 조건


  • Mutual exclusion(상호 배제)
    • 매 순간 하나의 프로세스 만이 자원을 사용할 수 있음


  • No preemption (비선점)
    • 프로세스는 자원을 스스로 내어놓을 뿐 강제로 빼앗기지 않음


  • Hold and wait(보유 대기)
    • 자원을 가진 프로세스가 다른 자원을 기다릴 때 보유 자원을 놓지 않고 계속 가지고 있음


  • Cicular wait(순환 대기)
    • 자원을 기다리는 프로세스 간에 사이클이 형성



3) Resource-Allocation Graph(자원할당 그래프)

  • 그래프에 cycle이 없으면 deadlock이 아니다.
  • 그래프에 cycle이 있으면
    • if only one instance per resource type, then deadlock(그림에서 점의 개수가 instance의 수)
    • if several instances per resource type, possibility of deadlock



3) Deadlock의 처리 방법


  • Deadlock Prevention(미리막음)
    • 자원 할당 시 Deadlock의 4가지 필요 조건 중 어느 하나가 만족되지 않도록 하는 것


  • Deadlock Avoidance(미리피함)
    • 자원 요청에 대한 부가적인 정보를 이용해서 deadlock의 가능성이 없는 경우에만 자원을 할당
    • 시스템 state가 원래 state로 돌아올 수 있는 경우에만 자원 할당


  • Deadlock Detection and recovery(생기게 놔두고, 발생했을 때 처리)
    • Deadlock 발생은 허용하되 그에 대한 detection 루틴을 두어 deadlock 발견 시 recover


  • Deadlock Ignorance
    • Deadlock을 시스템이 책임지지 않음
    • UNIX를 포함한 대부분의 OS가 채택



a. Deadlock Prevention(데드락의 4가지 조건 중 하나를 원천적으로 차단하는 방법)


Mutual Exclusion

  • 공유해서는 안되는 자원의 경우 반드시 성립해야 함


Hold and Wait

  • 프로세스가 자원을 요청할 때 다른 어떤 자원도 가지고 있지 않아야 한다. (보유하고 있으면서 요청할때 데드락이 생기므로)
  • 방법 1: 프로세스 시작 시 모든 필요한 자원을 할당받게 하는 방법(비효율적)
  • 방법 2: 자원이 필요할 경우 보유 자원을 모두 놓고 다시 요청


No Preemption(빼앗는 것을 허용한다 → Preemption 허용)

  • process가 어떤 자원을 기다려야 하는 경우 이미 보유한 자원이 선점됨
  • 모든 필요한 자원을 얻을 수 있을 때 그 프로세스는 다시 시작된다
  • State를 쉽게 save하고 restore할 수 있는 자원에서 주로 사용 (CPU나 memory같은 자원이 해당됨)


Circular Wait

  • 모든 자원 유형에 할당 순서를 정하여 정해진 순서대로만 자원 할당
  • 예를 들어 순서가 3인 자원 R을 보유 중인 프로세스가 순서 1인 자원 R1을 할당받기 위해서는 우선 R1을 Release 해야 한다.
  • 결과 : Uitilization(이용률) 저하, Throughput(성능-처리량) 감소, Starvation 문제



b. Deadlock Avoidance(항상 safe를 유지하는 보수적이고 매우 안전한 방법)


  • 자원 요청에 대한 부가정보를 이용해서 자원할당이 deadlock으로 부터 안전한지를 동적으로 조사해서 안전한 경우에만 할당


  • 가장 단순하고 일반적인 모델은 프로세스들이 필요로 하는 각 자원별 최대 사용량을 미리 선언하도록 하는 방법임


  • safe state
    • 시스템 내의 프로세스들에 대한 safe sequence가 존재하는 상태


  • safe sequence
    • 프로세스의 sequence < P1, P2, …, Pn >이 safe 하려면 Pi의 자원 요청이 “가용자원 + 모든 Pj의 보유 자원”에 의해 충족되어야 함
    • 조건을 만족하면 다음 방법으로 모든 프로세스의 수행을 보장
      • Pi의 자원 요청이 즉시 충족될 수 없으면 모든 Pj(j<i)가 종료될 때까지 기다린다.
      • Pi-1이 종료되면 Pi의 자원 요청을 만족시켜 수행한다.


  • 시스템이 safe state에 있으면 → 데드락이 발생하지 않음
  • unsafe state에 있으면 → 데드락 발생 가능성


a) Deadlock Avoidance

  • 시스템이 unsafe state에 들어가지 않는 것을 보장


  • 2가지 경우의 avoidance 알고리즘
    • Single instance per resource types
      • Resource Allocation Graph Algorithm
    • Multiple Instances per resource types
      • Banker’s Algorithm 사용


b) Resource Allocation Graph Algorithm(자원당 인스턴스가 하나일 때)


  • Claim edge Pi → Rj
    • 프로세스 Pi가 자원 Rj를 미래에 요청할 수 있음을 뜻함(점선으로 표시)
    • 프로세스가 해당 자원 요청시 request edge로 바뀜(실선)
    • Rj가 release 되면 assignment edge는 다시 claim edge로 바뀐다


  • request edge의 assginment edge 변경 시 (점선을 포함하여) cycle이 생기지 않는 경우에만 요청 자원을 할당한다. → 데드락의 위험성을 조사하여 발생할 가능성이 없을때만 할당


  • Cycle 생성 여부 조사 시 프로세스의 수가 n일 때 O(n^2) 시간이 걸림


  • 3번째 그림 → A cycle is formed(unsafe) 데드락은 아니지만, P1이 R2를 요청하면 데드락 발생할 가능성 있음


c) Bankers Algorithm(자원 당 인스턴스가 여러 개일 때) : 어렵다.


  • 가정1. 모든 프로세스는 자원의 최대사용량을 미리 명시
  • 가정2. 프로세스가 요청 자원을 모두 할당받은 경우 유한 시간 안에 이들 자원을 다시 반납한다


  • 방법(보수적으로, 절대 deadlock이 발생하지 않는 상황을 상정한다. 밑에 그림에서 P0의 요청에 따라 준다고해서 deadlock이 무조건 발생하는 것은 아니지만, 최악의 상황을 가정한다.)
  • 기본개념: 자원 요청 시 safe 상태를 유지할 경우에만 할당
    • 총 요청 자원의 수가 가용 자원의 수보다 적은 프로세스를 선택(그런 프로세스가 없으면 unsafe 상태)
    • 그런 프로세스가 있으면 그 프로세스에게 자원을 할당
    • 할당받은 프로세스가 종료되면 모든 자원을 반납
    • 모든 프로세스가 종료될 때까지 이러한 과정 반복



c. Deadlock Detection and Recovery


  • Deadlock Detection
    • Resource type 당 single instance인 경우
      • 자원 할당 그래프에서의 cycle이 곧 deadlock을 의미
    • Resource type 당 multible instance인 경우
      • Banker’s algorithm과 유사한 방법 활용


a) Wait-for graph 알고리즘

  • Resource type 당 single instance인 경우


  • Wait-for graph
    • 자원 할당 그래프의 변형
    • 프로세스만으로 node 구성
    • Pj가 가지고 있는 자원을 Pk가 기다리는 경우 Pk → Pj


  • Algorithm
    • Wait-for graph에 사이클이 존재하는지를 주기적으로 조사
    • O(n^2) - DFS/BFS


b) Multiple instane인 경우


  • Bankers 알고리즘과는 다르게 낙관적으로 자원의 분배를 예상한다.
  • 추가 요청 가능량이 아니라, 실제 요청 자원량으로 판단
  • 아무것도 요청하지 않은 프로세스의 자원을 반납시켜서 다른곳에 쓸 수 있다고 낙관적으로 가정해서 판단한다.


c) Recovery 방법


  • Process termination
    • Abort all deadlocked processes(데드락에 연루된 모든 프로세스를 kill)
    • Abort one process at a time until the deadlock cycle is eliminated(하나씩 kill)


  • Resource Preemption(데드락에 연루된 프로세스의 자원을 뺏는 방법)
    • 비용을 최소화 할 victim의 선정
    • safe state로 rollback하여 process를 restart
    • Starvation 문제
      • 동일한 프로세스가 계속해서 victim으로 선정되는 경우
      • cost factor에 rollback 횟수도 같이 고려



d. Deadlock Ignorance


  • Deadlock이 일어나지 않는다고 생각하고 아무런 조치도 취하지 않음
    • Deadlock이 매우 드물게 발생하므로 deadlock에 대한 조치 자체가 더 큰 overhead일 수 있음
    • 만약, 시스템에 deadlock이 발생한 경우 시스템이 비정상적으로 작동하는 것을 사람이 느낀 후 직접 process를 죽이는 등의 방법으로 대처
    • UNIX, Windows 등 대부분의 범용 OS가 채택