Algorithm/Programmers

[Python | Level2] 캐시 / 2018 KAKAO BLIND RECRUITMENT

dotz0ver 2025. 3. 19. 18:11

https://school.programmers.co.kr/learn/courses/30/lessons/17680

 

프로그래머스

SW개발자를 위한 평가, 교육, 채용까지 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프

programmers.co.kr


문제 설명

지도개발팀에서 근무하는 제이지는 지도에서 도시 이름을 검색하면 해당 도시와 관련된 맛집 게시물들을 데이터베이스에서 읽어 보여주는 서비스를 개발하고 있다.
이 프로그램의 테스팅 업무를 담당하고 있는 어피치는 서비스를 오픈하기 전 각 로직에 대한 성능 측정을 수행하였는데, 제이지가 작성한 부분 중 데이터베이스에서 게시물을 가져오는 부분의 실행시간이 너무 오래 걸린다는 것을 알게 되었다.
어피치는 제이지에게 해당 로직을 개선하라고 닦달하기 시작하였고, 제이지는 DB 캐시를 적용하여 성능 개선을 시도하고 있지만 캐시 크기를 얼마로 해야 효율적인지 몰라 난감한 상황이다.

어피치에게 시달리는 제이지를 도와, DB 캐시를 적용할 때 캐시 크기에 따른 실행시간 측정 프로그램을 작성하시오.


입력 형식

  • 캐시 크기(cacheSize)와 도시이름 배열(cities)을 입력받는다.
  • cacheSize는 정수이며, 범위는 0 ≦ cacheSize ≦ 30 이다.
  • cities는 도시 이름으로 이뤄진 문자열 배열로, 최대 도시 수는 100,000개이다.
  • 각 도시 이름은 공백, 숫자, 특수문자 등이 없는 영문자로 구성되며, 대소문자 구분을 하지 않는다. 도시 이름은 최대 20자로 이루어져 있다.

출력 형식

  • 입력된 도시이름 배열을 순서대로 처리할 때, "총 실행시간"을 출력한다.

조건

  • 캐시 교체 알고리즘은 LRU(Least Recently Used)를 사용한다.
  • cache hit일 경우 실행시간은 1이다.
  • cache miss일 경우 실행시간은 5이다.

문제 풀이

LRU 캐시란? 

LRU(Least Recently Used, 가장 오랫동안 사용되지 않은 페이지를 제거하는 알고리즘) 는 가장 오래 사용되지 않은 데이터를 제거하는 캐싱 기법이다.

 

  • 캐시 크기가 N일 때, 최대 N개의 데이터만 유지
  • 캐시 히트: 이미 캐시에 존재하면 해당 데이터를 최신으로 갱신
  • 캐시 미스: 캐시에 없으면 새 데이터를 추가 (꽉 찼다면 가장 오래된 데이터를 제거)

이를 구현하는 방법 중 하나가 Deque(양방향 큐) 를 활용하는 것이다.

 

Deque를 활용한 LRU 구현

LRU를 구현하는 방법에는 여러 가지가 있지만, 여기서는 Python의 deque를 활용했다.

from collections import deque

def solution(cacheSize, cities):
    l = [''] * cacheSize
    cache = deque(l, maxlen=cacheSize)  # LRU 캐시 역할
    answer = 0
    
    for city in cities:
        city = city.lower()  # 대소문자 구분X (대소문자 통일)
        
        if city in cache:  # 캐시 히트
            cache.remove(city)  # 기존 위치에서 삭제
            cache.append(city)  # 최신으로 갱신
            answer += 1
        else:  # 캐시 미스
            cache.append(city)  # 새 데이터 추가 (deque가 꽉 찼다면 자동으로 가장 오래된 데이터 제거)
            answer += 5

    return answer

 

✅ deque(maxlen=cacheSize)

  1. 고정된 크기 유지
    • maxlen을 설정하면 크기가 cacheSize를 초과할 경우 자동으로 가장 오래된 데이터가 제거됨
  2. O(1) 시간 복잡도로 빠른 추가 및 삭제
    • append()는 O(1)
    • remove()는 O(N)이지만, 캐시 크기가 작을 경우 충분히 빠름
  3. LRU의 특성 반영
    • 캐시 히트 시 기존 데이터 삭제 후 append() → 최근에 사용됨을 반영
    • 캐시 미스 시 append() → 가장 오래된 데이터가 자동 삭제됨

개선할 점

현재 deque를 사용한 코드의 문제점은 remove(city)가 O(N)이 걸린다는 점인데, 이를 OrderedDict를 활용하면 O(1)로 해결할 수 있다.

  • OrderedDict는 키-값 쌍을 유지하면서도 삽입 순서를 보장하는 딕셔너리.
  • move_to_end(key)를 사용하면 특정 키를 맨 뒤로 보낼 수 있음.
    • 즉, LRU 캐시의 "사용된 데이터를 최신으로 갱신"하는 작업을 O(1)로 해결 가능
  • 캐시가 꽉 찼을 때 popitem(last=False)를 하면 가장 오래된 항목을 O(1)로 삭제 가능

또한, 기존 코드에는 cacheSize == 0 일 때도 for문을 실행하며 불필요한 연산이 발생한다. 하지만, cacheSize == 0이면 캐시가 아예 없으므로 모든 요청이 무조건 캐시 미스이므로, 각 요청마다 실행 시간 5가 추가되기에 바로 결과를 반환하면 더 효율적이다.

 

from collections import OrderedDict

def solution(cacheSize, cities):
    if cacheSize == 0:
        return 5 * len(cities)  # 캐시 크기가 0이면 무조건 캐시 미스
    
    cache = OrderedDict()  # LRU 캐시 역할
    answer = 0
    
    for city in cities:
        city = city.lower()  # 대소문자 구분 없이 처리
        
        if city in cache:  # 캐시 히트
            cache.move_to_end(city)  # 최근 사용한 항목으로 갱신 (O(1))
            answer += 1
        else:  # 캐시 미스
            if len(cache) >= cacheSize:  # 캐시가 꽉 찼다면 가장 오래된 항목 제거 (O(1))
                cache.popitem(last=False)
            cache[city] = True  # 새 항목 추가 (O(1))
            answer += 5

    return answer