728x90
반응형

 

728x90

안녕하세요! 오늘은 데이터 분석에서 정말 중요한 그래프 색상을 정리하는 포스팅을 진행하도록 하겠습니다.

 

데이터 분석에서 시각화는 정말 중요한데요.

똑같이 데이터 분석을 진행했다고 해도, 얼만큼 잘 표현할 수 있는지에 따라 굉장히 다른 평가를 받을 수 있습니다.

저도 실제로 회사에서 그래프 색상 사용 덕분에 보고서의 평가가 훨씬 좋았던 경험이 많았기 때문에 파이썬에서 사용할 수 있는 색상을 정리해보고자 합니다.

 

  • 단일 색상

단일 색상을 이미 지정된 색상을 단일 알파벳으로 지정하는 것, 색상의 이름을 직접 지정하는 것으로 구분할 수 있습니다.

  • 단일 색상 사용 예시

단일 색상인 lightskybluelightcoral을 사용한 예시 입니다.

이 두 색은 제가 자주 사용하는 색 조합인데요!

두 개의 비교군을 보여줄 때 사용하는데, 눈이 아프지 않아 좋습니다.

plt.figure(figsize=(12, 8))  # 그래프 크기 설정
lineplot = sns.lineplot(x='a', y='b', hue='c', data=mini_data, palette=['lightskyblue', 'lightcoral'])
line_colors = {line.get_label(): line.get_color() for line in lineplot.lines}
line_color = {'A': 'deepskyblue', 'B': 'red'}

for name, group in mini_data.groupby('c') :
    for x, y in zip(group['a'], group['b']):
        if x%5 == 0 :
            plt.text(x, y+1.1, f'{y:.1f}%', color=line_color[name], ha='right', va='bottom', fontsize=12, fontweight='bold')
            plt.scatter(x, y, color=line_colors[name], s=70)
        else :
            plt.text(x, y+1.1, f'{y:.1f}%', color=line_color[name], ha='right', va='bottom', fontsize=8, fontweight='bold')
            plt.scatter(x, y, color=line_colors[name], s=30)

  • 컬러맵 (color map)

컬러맵은 색상의 분포를 의미합니다.

산점도나 하트맵 같이 단일 색상으로 정하기 어려운 그래프의 경우 컬러맵을 사용하는 경우가 많습니다.

 

  • 컬러맵 사용 예시

컬러 맵인 Reds coolwarm을 사용한 예시 입니다.

개인적으로 히트맵은 Reds와 같이 비슷한 색상의 컬러 맵을 많이 사용하고, 워드클라우드 같이 데이터가 뚜렷하게 구분되어야 할 경우에는 다른 색상이 많은 컬러 맵을 사용하는 것 같아요!

plt.figure(figsize=(10, 10))
sns.heatmap(df, annot=True, cmap='Reds', fmt='.2f', linewidths = 0.1,annot_kws={'size': 12}, cbar=False)

Naver = np.array(Image.open("./A.png"))
plt.figure(figsize=(30,30))
wc = WordCloud(        relative_scaling=0.2,mask = Naver,
                       font_path="/Windows/Fonts/Cafe24Dangdanghae-v2.0.otf",
                       background_color="white",
                       min_font_size=1,
                       max_font_size=50,
                       max_words=100,
                       colormap = 'coolwarm'
                     ).generate_from_frequencies(wordcloud_data)
plt.imshow(wc)
plt.axis('off')
plt.show()

그 외에도 컬러 맵을 리스트로 지정한 후 하나씩 단일 색상으로 사용할 수도 있습니다!

저는 개인적으로 Qualitative colormaps 같은 경우, 제가 눈으로 색상을 하나씩 확인할 수 있어서 해당 컬러맵은 단일 색상처럼 사용하는 경우도 자주 있는 것 같습니다.

# Pastel1 컬러맵 불러오기
cmap = plt.get_cmap('Pastel1')
# 여섯 번째 색상 선택
color = cmap(5)

plt.figure(figsize=(8, 5))
plt.bar(categories, values, color=color, edgecolor='black')
plt.tight_layout()
plt.show()

 

여기까지 파이썬에서 사용할 수 있는 색상을 정리해보았습니다!

해당 색상을 잘 활용하여 보고서의 퀄리티를 높이는 시각화를 하시면 좋겠습니다:)

★읽어주셔서 감사합니다★

혼자 공부하는 파이썬:1:1 과외하듯 배우는 프로그래밍 자습서, 윤인성, 한빛미디어Do it! 점프 투 파이썬, 이지스퍼블리싱혼자 공부하는 데이터 분석 with 파이썬:1:1 과외하듯 배우는 데이터 분석 자습서, 한빛미디어앱코 저소음 풀배열 멤브레인 108키 키보드, 블랙, MK108KDNC 2.4G무선 키보드 마우스 세트 저소음 무선 키보드 + 무선 마우스 세트 무접점키보드, 밀크티, 무선 세트

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

 

728x90
반응형
728x90
반응형
728x90

 

안녕하세요. 오늘은 기존에 작성한 네이버 뉴스 클로링 코드에서 첫 번째 코드의 자세한 크롤링 과정을 포스팅 하겠습니다.

새롭게 변경된 첫 번째 코드의 자세한 크롤링 과정입니다!

 

네이버 뉴스 크롤링 전체 코드를 확인하고 싶으신 분들은 아래 링크를 확인해주세요!

https://yhj9855.com/entry/Crawling-%EB%84%A4%EC%9D%B4%EB%B2%84-%EB%89%B4%EC%8A%A4-%ED%81%AC%EB%A1%A4%EB%A7%81-%EC%BD%94%EB%93%9C-%EB%B3%80%EA%B2%BD

 

[Crawling] 네이버 뉴스 크롤링 코드 변경

안녕하세요! 네이버 뉴스가 24년 1월 25일부터 페이지가 보여주는 방식이 변경되면서, 이전 포스팅에서 진행했던 첫 번째 코드를 사용할 수 없게 되었습니다. 그래서 변경된 페이지에서 적용되는

yhj9855.com

 

이전에 사용되었던 BeautifulSoup으로 크롤링 했던 코드의 자세한 과정이 궁금하신 분들은 아래 링크를 확인해주세요!

https://yhj9855.com/entry/Crawling-%EB%84%A4%EC%9D%B4%EB%B2%84-%EB%89%B4%EC%8A%A4-%ED%81%AC%EB%A1%A4%EB%A7%81-2

 

[Crawling] 네이버 뉴스 크롤링 - 2

안녕하세요. 오늘은 기존에 작성한 네이버 뉴스 크롤링 코드에서 첫 번째 코드의 자세한 크롤링 과정을 포스팅 하겠습니다. 네이버 뉴스 크롤링 전체 코드를 확인하고 싶으신 분들은 아래 링크

yhj9855.com


첫 번째 코드는 Python으로 특정 날짜의 네이버 게임/리뷰 카테고리의 기사들을 크롤링하는데, 제목과 링크만 가져오는 코드였습니다.

 

  • 기본 링크 설정하기

크롤링을 시작할 때 크롤링하고자 하는 페이지의 링크를 설정하는 것이 가장 중요합니다.

위의 그림처럼 2025년 01월 07일의 게임/리뷰 카테고리의 뉴스를 크롤링하고자 한다면, 원하는 정보가 담긴 링크는 아래와 같습니다.

 

https://news.naver.com/breakingnews/section/105/229?date=20250107

 

해당 링크에서 가장 중요한 것은 date=20250107 부분인데요!

네이버 뉴스의 경우, 날짜를 링크 자체에서 구분할 수 있게 되어 있습니다.

그렇기 때문에 특정 날짜의 기사들을 크롤링하고 싶다면 date 뒤에 연도+월+일을 붙이면 된다는 사실을 알 수 있습니다.

해당 부분을 코드로 변경하면 아래와 같습니다.

# 수정하고자 하는 메인 링크
link = 'https://news.naver.com/breakingnews/section/105/229?date='
# 스크랩 하고 싶은 날짜를 년도월일 나열해준다.
# 날짜를 쉽게 바꾸기 위해 date를 따로 선언해준다.
date = '20250107'
# 메인 링크는 링크에 날짜가 붙은 구조이기 때문에 이렇게 작성해준다.
main_link = link + date
# 기사의 수, 제목, 링크를 받아올 예정이기 때문에 정보를 담아줄 데이터 프레임을 생성한다.
Main_link = pd.DataFrame({'number' : [], 'title' : [], 'link' : []})

 

[크롤링 하고자 하는 URL 찾기 Tip]

더보기
더보기

링크를 확인할 때 오늘 날짜, 첫 페이지와 같이 기본적으로 접속하면 바로 볼 수 있는 URL로 확인하는 건 피하시는게 좋습니다.

기본으로 설정된 URL은 해당 URL만 특별하게 설정되어 있거나, 보이는 링크와 실제 링크가 다른 경우도 종종 있기 때문에 오류가 발생하기 쉽습니다.

아래 그림처럼 '오늘' 날짜의 뉴스 기사에는 date 표시가 되어있지 않기 때문에 초기 링크를 설정할 때 어려움이 있을 수 있습니다.

  • 기사 더보기 클릭 및 URL 확인하기

 

원하는 날짜의 모든 기사를 크롤링하기 위해서는 아래 그림처럼 기사 더보기 버튼을 클릭해서 기사를 끝까지 업로드 해야 합니다.

 

이 때, 중요한 것은 기사를 업로드 해도 URL이 변경되지 않는다는 것입니다!

기사 더보기를 웹 페이지 안의 내용이 달라졌음에도 URL이 달라지지 않기 때문에 이전에 진행했던 정적 크롤링으로는 진행할 수가 없는 것입니다.

 

이렇게 URL이 변경되지 않고, 데이터가 변경되는 것동적 페이지라고 부릅니다.

동적 페이지는 오직 1가지 방법으로만 크롤링이 가능한데요!

바로 Selenium을 활용한 동적 크롤링 입니다.

 

Selenium을 활용한 동적 크롤링을 진행하기 위해서는 크롬 드라이버 설치가 필수적입니다.

크롬 드라이버 설치가 되어 있지 않거나, 자신의 크롬 버전과 크롬 드라이버 버전이 맞지 않으시는 분들은 아래 링크에 설명된 방법을 통해서 크롬 드라이버를 먼저 설치해주셔야 합니다!

https://yhj9855.com/entry/%ED%81%AC%EB%A1%AC%EB%93%9C%EB%9D%BC%EC%9D%B4%EB%B2%84-%EC%84%A4%EC%B9%98%ED%95%98%EA%B8%B0-%EC%B5%9C%EC%8B%A0%EB%B2%84%EC%A0%84%EA%B3%BC-%EB%8B%A4%EB%A5%B8-%ED%81%AC%EB%A1%AC%EB%93%9C%EB%9D%BC%EC%9D%B4%EB%B2%84-%EC%84%A4%EC%B9%98

 

크롬드라이버 설치하기 (최신버전과 다른 크롬드라이버 설치)

안녕하세요!최근에 크롬 드라이버를 설치하는 페이지가 변경되어 새롭게 포스팅을 하겠습니다! 이전 포스팅이 궁금하신 분들은 아래 포스팅을 참고해주시면 됩니다!https://yhj9855.com/entry/%ED%81%AC

yhj9855.com

 

  • 코드로 기사 더보기 버튼 클릭하기

이제 어떤 방향으로 크롤링을 해야하는지 알았기 때문에 기사를 모두 업로드해서 크롤링하는 방법만 남았습니다.

다음으로 고려해야 할 문제점은 저희가 코드로 기사 더보기 버튼을 클릭해야 하는 것과 기사 더보기 버튼의 끝을 알아야 한다는 것입니다.

아래 그림처럼 기사를 기사 더보기 버튼을 지속적으로 클릭하다보면, 더 이상 해당 버튼이 등장하지 않는 것을 보실 수 있습니다.

해당 부분을 보고 저희가 알 수 있는 것은 기사 더보기 버튼을 계속 클릭하다보면, 더 이상 버튼이 없어서 오류가 발생하는 지점이 생긴다는 것입니다!

 

이제 개발자 도구 창을 열어, 기사 더보기 버튼이 어떤 HTML 구조를 가지고 있는지 확인하는 작업이 필요합니다.

개발자 도구에 대한 자세한 설명은 아래 링크를 확인해주세요!

https://yhj9855.com/entry/%ED%81%AC%EB%A1%AC-%EA%B0%9C%EB%B0%9C%EC%9E%90-%EB%8F%84%EA%B5%AC-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0

 

크롬 개발자 도구 사용하기

안녕하세요. 오늘은 크롤링을 진행하기 위해 반드시 필요한 개발자 도구를 사용하는 법에 대해서 포스팅 하겠습니다. 크롬 개발자 도구란? 크롬 브라우저에 직접 내장된 웹 개발 도구로, 웹 페

yhj9855.com

 

저희는 기사 더보기 버튼의 HTML 구조를 알고 싶은 것이기 때문에 아래 그림처럼 따라합니다.

①번의 아이콘을 클릭한 후, ②번(=원하는 정보)을 클릭하면 원하는 정보의 HTML 구조로 바로 이동이 됩니다.

원하는 정보의 HTML 구조를 확인해보니, 아래와 같이 나왔습니다.

 

<a href="#" class="section_more_inner _CONTENT_LIST_LOAD_MORE_BUTTON" data-persistable="false">기사 더보기</a>

 

[HTML 구조의 뜻]

더보기
더보기
  1. 'a' 태그 : 링크가 담겨져 있는 공간이면 해당 태그를 사용합니다. 현재 버튼을 클릭하면 새로운 기사가 등장하기 때문에 해당 태그를 사용했습니다.
  2. href: 링크의 주소를 가지고 있는 부분입니다. 여기서는 #을 사용하여, 페이지를 변동하지 않겠다는 옵션을 지정해주었습니다.
  3. class: 태그의 속성을 나타내는 부분입니다. 크롤링을 진행할 때 많이 사용되는 부분으로 ID가 없을 경우에는 이름처럼 사용되기도 합니다.
  4. data-* : HTML5에서 지원하는 사용자 정의 데이터 속성입니다. 여기서의 옵션은 특정 동작이나 상태를 저장하지 않도록 지시하는 것을 의미합니다.

 

기사 더보기 버튼의 HTMl 구조를 알았으니, 오류가 발생할 때까지 버튼을 클릭하는 코드를 작성합니다.

service = Service('chromedriver.exe')
driver = webdriver.Chrome(service=service)
driver.get(main_link)
# 웹 페이지 로딩을 기다리는 코드로, 초는 더 짧아도 된다.
time.sleep(3)

# 기사 더보기 버튼
more_button = driver.find_element(By.CLASS_NAME, 'section_more_inner._CONTENT_LIST_LOAD_MORE_BUTTON')

# 기사 더보기가 몇 개가 있을지 모르기 때문에 오류가 날 때까지 누르는 것으로 한다.
# 여기서 발생하는 오류란 버튼을 찾을 수 없다 즉, 버튼이 없을 때 발생하는 오류이다.
while True :
    try :
        more_button.click()
        time.sleep(3)
    except :
        break

위의 코드에서 보면, time.sleep 코드를 사용하는 것을 보실 수 있습니다.

동적 크롤링을 작성하실 때 생각보다 많이 놓치실 수 있는 부분인데요!

동적 크롤링은 코드로 크롬을 띄우고, 직접 웹 페이지에 들어가서 해당 페이지에 있는 내용을 크롤링하는 작업입니다.

그렇기 때문에 웹 페이지 로딩이 되지 않은 상태에서 접근을 시도하면 오류가 발생하는데, 이 때 발생하는 오류가 특정 HTML을 찾을 수 없다는 오류가 발생합니다.

 

이로 인해 초보자분들께서는 웹 페이지가 로딩이 되지 못했다고 생각을 못하고, 코드 내 오류가 있다고만 생각을 하여 한참 시간을 소모하는 경우를 많이 봤습니다!

이를 방지하기 위해서 time.sleep 명령어를 웹 페이지가 변경될 때마다 꼭 넣어주셔야 합니다.

몇 초를 기다리는지는 웹 페이지 안의 영상, 이미지 여부나 인터넷 속도에 따라서 다르지만 보통 1~5초 사이 라고 보시면 됩니다.

 

  • 기사의 제목과 링크 가져오기

마지막으로 크롤링 목적인 기사의 제목과 링크를 가져오기만 하면 첫 번째 코드의 크롤링이 완료됩니다!

버튼을 확인했던 것처럼 개발자 도구에서 기사의 제목과 링크가 어떤 HTML 구조를 가지고 있는지 확인해보겠습니다.

HTML 구조를 확인해보니 아래와 같이 나왔습니다.

<a href="https://n.news.naver.com/mnews/article/119/0002911455" class="sa_text_title _NLOG_IMPRESSION" data-clk="alist" data-rank="34" data-gdid="8812A0A8_000000000000000002911455" data-imp-url="https://n.news.naver.com/mnews/article/119/0002911455">
<strong class="sa_text_strong">LCK컵, 15일 개최…우승 팀은 국제 대회 출전권 획득</strong>
</a>

 

[HTML 구조의 뜻]

더보기
더보기
  1. 'strong' 태그 : HTML에서 텍스트를 굵게 보이기 위한 태그입니다.

 

이전 기사 더보기 버튼의 HTML 구조와 매우 유사한 것을 알 수 있습니다.

저희가 수집해야 할 정보는 아래와 같습니다.

  1. 기사의 제목 : a태그 속 strong태그 텍스트
  2. 기사의 링크 : a태그 속 HTML 구조의 href

해당 부분을 코드로 변경하면 아래와 같습니다.

# 기사의 제목과 링크가 모두 담긴 a태그를 모두 찾는다.
articles = driver.find_elements(By.CLASS_NAME, 'sa_text_title._NLOG_IMPRESSION')
# a태그 내 기사의 제목과 링크를 따로 저장한다.
for i in range(len(articles)) :
	# 기사의 제목
    # strip을 사용하여 눈으로 확인할 수 없는 양 끝의 공백을 제거한다.
    title = articles[i].text.strip()
    # href 부분을 가져온느 방법
    # a태그 내 href를 가져온다.
    link = articles[i].get_attribute('href')
    # 번호는 0부터 시작하기 때문에 1을 더해준다.
    li = [i+1, title, link]
    Main_link.loc[i] = li
  • 액셀 파일로 저장

이제 크롤링 작업은 완료되었고, 크롤링한 데이터프레임을 엑셀 파일로 저장하도록 하겠습니다.

# 엑셀을 잘 관리하기 위해서 크롤링 날짜를 파일 이름에 포함한다.
excel_name = 'news_' + date + '.xlsx'
with pd.ExcelWriter(excel_name) as writer :
    Main_link.to_excel(writer, sheet_name='링크', index=False)

이런 과정을 통해서 특정 날짜의 모든 기사의 제목과 링크를 크롤링하는 코드가 완성되었습니다!!

 

[전체 코드]

import pandas as pd
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
import time
from selenium.webdriver.common.by import By
from openpyxl import *

link = 'https://news.naver.com/breakingnews/section/105/229?date='
date = '20250107'

main_link = link + date 
Main_link = pd.DataFrame({'number' : [], 'title' : [], 'link' : []})

service = Service('chromedriver.exe')
driver = webdriver.Chrome(service=service)
driver.get(main_link)
time.sleep(3)

more_button = driver.find_element(By.CLASS_NAME, 'section_more_inner._CONTENT_LIST_LOAD_MORE_BUTTON')

while True :
    try :
        more_button.click()
        time.sleep(3)
    except :
        break

articles = driver.find_elements(By.CLASS_NAME, 'sa_text_title._NLOG_IMPRESSION')
for i in range(len(articles)) :
    title = articles[i].text.strip()
    link = articles[i].get_attribute('href')
    li = [i+1, title, link]
    Main_link.loc[i] = li


excel_name = 'news_' + date + '.xlsx'
with pd.ExcelWriter(excel_name) as writer :
    Main_link.to_excel(writer, sheet_name='링크', index=False)

 

이전 코드와 마찬가지로 Xpath, CSS_Selector를 사용하지 않았는데, 해당 부분을 사용하면 쉽게 크롤링을 할 수 있지만 HTML 코드가 복잡하거나 크롤링을 배우고 싶은 분들에게는 좋은 방법이 아니라고 생각합니다.

 

기사의 본문을 크롤링하는 두 번째 코드의 자세한 크롤링 코딩 과정을 확인하고 싶으신 분들은 아래 링크를 확인해주세요!!
https://yhj9855.com/entry/Crawling-%EB%84%A4%EC%9D%B4%EB%B2%84-%EB%89%B4%EC%8A%A4-%ED%81%AC%EB%A1%A4%EB%A7%81-3

 

[Crawling] 네이버 뉴스 크롤링 - 3

안녕하세요. 오늘은 기존에 작성한 네이버 뉴스 크롤링 코드에서 두 번째 코드의 자세한 크롤링 과정을 포스팅 하겠습니다. 네이버 뉴스 크롤링 전체 코드를 확인하고 싶으신 분들은 아래 링크

yhj9855.com

 

코드에 대해 궁금한 점이 있으신 분들은 댓글로 남겨주시면, 답변 드리겠습니다.

★ 읽어주셔서 감사합니다★

와이드뷰 FHD 화이트에디션 스마트 TV 삼탠바이미세트, 101cm, GTWV400FHD11(TV), EKWBYME38W(거치대)

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

 

728x90
반응형
728x90
반응형

안녕하세요!
오늘은 프로그래머스 SQL 고득점 Kit 중 SELECT 분야의 ‘조건에 맞는 개발자 찾기’ 문제 리뷰를 진행하겠습니다.

문제는 아래 링크에서 확인해주시면 됩니다.

https://school.programmers.co.kr/learn/courses/30/lessons/276034

 

프로그래머스

코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요.

programmers.co.kr

 

  • 문제 설명

 

  • 문제

 

  • 예시

728x90

  • 문제를 파악하며 쿼리 생각하기

예시에서 볼 수 있듯이, 저희가 문제에서 SELECT 해야 하는 부분은

  1. 개발자 ID : ID
  2. 이메일 : EMAIL
  3. 이름 : FIRST_NAME
  4. 성 : LAST_NAME

총 4개인 것을 볼 수 있습니다.

다음으로 저희가 WHERE 조건으로 확인해야 하는 부분은

  1. C# 혹은 Python 스킬을 가진 개발자 : NAME IN (‘C#’, ‘Python’)
    → 이름이 아니고 각 스킬에 해당하는 CODE 값으로 진행해도 됩니다. (CODE IN (1024, 256))

총 1개인 것을 확인할 수 있습니다.

다음으로 두 개의 테이블을 JOIN 해야하는 부분은

  1. DEVELOPERS 테이블의 SKILL_CODE 이진수 값 안에 SKILLCODES 테이블의 CODE 값이 들어있는 경우 : JOIN SKILLCODES b ON a.SKILL_CODES&b.CODE=b.CODE
    → 여기서 a는 DEVELOPERS 테이블의 별칭입니다.
    → 문제 설명처럼 개발자의 스킬 코드는 각 스킬 코드의 합으로 이루어져 있기 때문에, 어떤 합으로 이루어졌는지 알기 위해서는 비트 연산 &를 진행해야 합니다.

    ※ & 연산자는 이진수로 변경했을 때, 각 자릿수를 비교하여 동일하면 1, 다르면 0을 반환하는 연산자 입니다.
    → 문제 설명의 예시를 보시면 400(110010000)은 256(100000000)+128(10000000)+16(10000) 이고, 이를 각각 400과 &연산자를 진행하면 다음과 같은 결과물을 얻을 수 있습니다.

    ① 400&256 = 110010000&100000000 = 100000000 = 256
    ② 400&128 = 110010000&10000000 = 10000000 = 128
    ③ 400&16 = 110010000&10000 = 10000 = 16

    즉, DEVELOPERS의 SKILL_CODE와 CODE의 & 연산의 값이 CODE로 나오는 값개발자가 가진 스킬이라고 볼 수 있습니다.

위와 같은 것을 확인할 수 있습니다.

마지막으로 저희가 문제에서 확인해야 하는 부분은

  1. 개발자 ID로 오름차순 : ORDER BY ID

총 1개인 것을 확인할 수 있습니다.

 

  • 쿼리 완성하기

이제 위에서 생각한 쿼리를 SQL 실행순서에 맞게 배치해주시면 됩니다.
그렇게 완성된 쿼리는 아래와 같습니다.

-- C#과 Python 모두를 가진 개발자는 두 번 출력이 되기 때문에 DISTINCT를 해주어 중복값을 제거해줍니다.
SELECT  DISTINCT
        ID,
        EMAIL,
        FIRST_NAME,
        LAST_NAME
FROM    DEVELOPERS a
JOIN    SKILLCODES b ON a.SKILL_CODE&b.CODE=b.CODE
WHERE   NAME IN ('C#', 'Python')
ORDER BY 1


궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니다★

728x90
반응형
728x90
반응형

안녕하세요!

오늘은 프로그래머스 SQL 고득점 Kit 중 GROUP BY 분야의 '대여 횟수가 많은 자동차들의 월별 대여 횟수 구하기' 문제 리뷰를 진행하겠습니다.

 

문제는 아래 링크에서 확인해주시면 됩니다.

https://school.programmers.co.kr/learn/courses/30/lessons/151139

 

프로그래머스

코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요.

programmers.co.kr

 

  • 문제 설명

 

  • 문제

 

  • 예시

728x90
  • 문제를 파악하며 쿼리 생각하기

예시에서 볼 수 있듯이, 저희가 문제에서 SELECT 해야하는 부분은 

  1. 월 : MONTH(START_TIME) AS MONTH
    → 문제에서 날짜의 기준을 대여 시작일로 하고 있기 때문에 START_TIME을 해줘야 합니다.
    → MONTH() 는 DATE 타입에서 월을 가지고 오는 명령어 입니다.
    → MONTH는 문제 조건에 맞게 별칭으로 지정한 것 입니다.
  2. 자동차 ID : CAR_ID
  3. 월별 대여 횟수 : COUNT(*) AS RECORDS
    → 대여 횟수를 구하기 위해서 COUNT 집계 함수를 사용합니다.
    → RECORDS는 문제 조건에 맞게 별칭으로 지정한 것 입니다.

총 3개인 것을 확인할 수 있습니다.

 

다음으로 저희가 WHERE 조건으로 확인해야 하는 부분은

  1. 2022년 8월부터 2022년 10월까지 총 대여 횟수가 5회 이상인 자동차
    → 조건이 복잡하기 때문에 서브 쿼리를 사용해야 합니다.
  2. 2022년 8월부터 2022년 10월 동안 : START_DATE BETWEEN '2022-08-01' AND '2022-10-31'

총 2개인 것을 확인할 수 있습니다.

 

이번 문제에서는 WHERE 절 조건이 복잡하기 때문에 서브 쿼리를 사용해야 합니다.

서브 쿼리에서 확인해야 하는 부분은

  1. 자동차 : WHERE CAR_ID IN (SELECT CAR_ID
    → WHERE 절에 서브 쿼리를 쓰실 때 주의해야 할 점은 SELECT 절에 반드시 비교하고자 하는 하나의 컬럼을 사용해야 하는 것입니다.
    → 문제에서는 특정 기간 동안 대여 횟수 5회 이상인 자동차라고 했기 때문에 WHERE 절에 CAR_ID가 와야 하고 이에 맞게 서브 쿼리 안에 SELECT 안에도 CAR_ID만 올 수 있습니다.
  2. 2022년 8월부터 2022년 10월 : WHERE START_DATE BETWEEN '2022-08-01' AND '2022-10-31'
  3. 대여 횟수 5회 이상 :GROUP BY CAR_ID HAVING COUNT(*) >= 5)
    → 대여 횟수를 구하기 위해서 COUNT 집계 함수를 사용합니다.
    → 집계 함수 사용한 결과를 조건으로 걸어야 하기 때문에 HAVING을 사용합니다.
    → 집계 함수의 결과물을 사용할 수 없을 때, HAVING에서 바로 집계 함수를 사용하는 것이 가능합니다.

위와 같은 것을 확인할 수 있습니다.

다음으로 저희가 GROUP BY 해야하는 부분은

  1. 월별 자동차 대여 횟수 : GROUP BY MONTH(START_DATE), CAR_ID
    → 월별 대여 횟수이기 때문에 반드시 MONTH(START_DATE)를 해주셔야 합니다.
  2. 특정 월의 총 대여 횟수가 0인 경우 제외 : HAVING RECORDS != 0
    → 집계 함수의 결과를 조건으로 걸어야 하기 때문에 HAVING을 사용합니다.

위와 같은 것을 확인할 수 있습니다.

 

마지막으로 저희가 문제에서 확인해야 하는 부분은

  1. 월 기준 오름차순, 자동차 ID 기준 내림차순 : ORDER MONTH, CAR_ID DESC

총 1개인 것을 확인할 수 있습니다.

 

쿼리 완성하기

이제 위에서 생각한 쿼리를 SQL 실행 순서에 맞게 배치해주시면 됩니다.

그렇게 완성된 쿼리는 아래와 같습니다.

SELECT  MONTH(START_DATE) AS MONTH,
        CAR_ID,
        COUNT(*) AS RECORDS
FROM    CAR_RENTAL_COMPANY_RENTAL_HISTORY
WHERE   CAR_ID IN (
        SELECT  CAR_ID
        FROM    CAR_RENTAL_COMPANY_RENTAL_HISTORY
        WHERE   START_DATE BETWEEN '2022-08-01' AND '2022-10-31'
        GROUP BY 1
        HAVING COUNT(*) >= 5
        )
        AND START_DATE BETWEEN '2022-08-01' AND '2022-10-31'
GROUP BY 1,2
HAVING RECORDS != 0
ORDER BY 1, 2 DESC

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니다★

728x90
반응형
728x90
반응형

안녕하세요!

오늘은 프로그래머스 SQL 고득점 Kit 중 SELECT 분야의 '서울에 위치한 식당 목록 출력하기' 문제 리뷰를 진행하겠습니다.

 

문제는 아래 링크에서 확인해주시면 됩니다.

https://school.programmers.co.kr/learn/courses/30/lessons/131118

 

프로그래머스

코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요.

programmers.co.kr

 

  • 문제 설명

 

  • 문제

 

  • 예시

728x90

  • 문제를 파악하며 쿼리 생각하기

예시에서 볼 수 있듯이, 저희가 문제에서 SELECT 해야하는 부분은 식당의

  1. 식당 ID : REST_ID
  2. 식당 이름 : REST_NAME
  3. 음식 종류 : FOOD_TYPE
  4. 즐겨찾기 수 : FAVORITES
  5. 주소 : ADDRESS
  6. 리뷰 평균 점수 : AVG(REVIEW_SCORE)

총 6개인 것을 확인할 수 있습니다.

 

다음으로 JOIN 해야하는 부분은

  1. REST_INFO 와 REST_REVIEW를 REST_ID를 기준으로 동시 만족 : JOIN REST_REVIEW b ON a.REST_ID=b.REST_ID
    → a는 REST_INFO 의 별칭입니다.
    REST_INFO와 REST_REVIEW을 둘 다 만족해야 하기 때문에 내부 조인을 사용해야 합니다.
    → 내부 조인이기 때문에 REST_REVIEW에 REST_INFO를 JOIN하셔도 괜찮습니다.

위와 같은 것을 확인할 수 있습니다.

 

다음으로 저희가 WHERE 조건으로 확인해야 하는 부분은

  1. 서울에 위치한 식당 : ADDRESS LIKE '서울%'
    → 서울에 위치한 식당의 주소는 '서울시 ~~' 혹은 '서울특별시 ~~' 로 시작하기 때문에 주소에서 서울로 시작하는 문자열을 모두 가지고 와줍니다. 

총 1개인 것을 확인할 수 있습니다.

 

마지막으로 저희가 문제에서 확인해야 하는 부분은

  1. 리뷰 평균 점수는 소수점 세 번째 자리애서 반올림 : ROUND(AVG(REVIEW_SCORE), 2)
    → ROUND(x, y)는 x를 소수점 y자리 까지 반올림해서 보여주는 함수입니다.
    → 참고로 올림은 CEILING, 내림은 FLOOR을 사용해주시면 됩니다.
  2. 평균 점수 기준 내림차순, 즐겨찾기 수 내림차순 : ORDER BY AVG(REVIEW_SCORE) DESC, FAVORITES DESC
    → ORDER BY는 SELECT에서 진행한 별칭을 사용해도 되기 때문에, AVG(REVIEW_SCORE) 대신 별칭을 사용하시면 좋습니다.
    → ORDER BY는 SELECT에 나온 것을 기준으로 순서를 정렬하기 때문에 SELECT에 있는 컬럼의 순서로 적으셔도 됩니다.

총 2개인 것을 확인할 수 있습니다.

  • 쿼리 완성하기

이제 위에서 생각한 쿼리를 SQL 실행 순서에 맞게 배치해주시면 됩니다.

그렇게 완성된 쿼리는 아래와 같습니다.

SELECT  a.REST_ID,
        REST_NAME,
        FOOD_TYPE,
        FAVORITES,
        ADDRESS,
        ROUND(AVG(REVIEW_SCORE), 2) AS SCORE
FROM    REST_INFO a
JOIN   REST_REVIEW b ON a.REST_ID=b.REST_ID
WHERE   ADDRESS LIKE '서울%'
GROUP BY 1, 2, 3, 4, 5
ORDER BY 6 DESC, 4 DESC

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니다★

728x90
반응형
728x90
반응형

안녕하세요!

오늘은 프로그래머스 SQL 고득점 Kit 중 GROUP BY 분야의 '저자 별 카테고리 매출액 집계하기' 문제 리뷰를 진행하겠습니다.

 

문제는 아래 링크에서 확인해주시면 됩니다.

https://school.programmers.co.kr/learn/courses/30/lessons/144856

 

프로그래머스

코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요.

programmers.co.kr

 

  • 문제 설명

 

  • 문제

 

  • 예시

 

  • 문제를 파악하여 쿼리 생각하기

예시에서 볼 수 있듯이, 저희가 문제에서 SELECT 해야하는 부분은 책의

  1. 저자 ID : AUTHOR_ID
    → AUTHOR_ID가 소속되어 있는 BOOK / AUTHOR 두 개의 테이블 중에서 아무 테이블에서 가져오시면 됩니다.
  2. 저자 이름 : AUTHOR_NAME
  3. 장르 : CATEGORY
  4. 총 매출 : SUM(PRICE*SALES) TOTAL_SALES
    → 각 책에 대한 금액과 판매 권수만 나와있기 때문에 금액*판매 권수를 하면 각 책의 매출 금액을 알 수 있습니다.
    → 저자별, 카테고리 별 총 매출액을 알고 싶기 때문에 각 책의 매출 금액을 합쳐야 최종 매출액을 구할 수 있습니다.
    → TOTAL_SALES는 총 매출액의 컬럼을 별칭으로 지정한 것 입니다.

총 4개인 것을 확인할 수 있습니다.

728x90

다음으로 테이블을 JOIN 해야하는 부분은

  1. BOOK 테이블과 AUTHOR 테이블을 AUTHOR_ID 기준으로 동시 만족 : JOIN AUTHOR b ON a. AUTHOR_ID=b. AUTHOR_ID
    → 여기서 a는 BOOK 테이블의 별칭이라고 생각하시면 됩니다.
  2. BOOK 테이블과 BOOK_SALES 테이블을 BOOK_ID를 기준으로 동시 만족 : JOIN BOOK_SALSE c ON a.BOOK_ID=c.BOOK_ID

위와 같은 것을 확인할 수 있습니다.

 

다음으로 저희가 WHERE 조건으로 확인해야 하는 부분은

  1. 2022년 1월 기준 : SALES_DATE LIKE '2022-01%'
    → 날짜가 '연도-월-일'의 형태로 들어오고 있고, 연도와 월만 생각하면 되기 때문에 일에 어떤 값이 와도 상관없다는 뜻으로 %를 붙여주시면 됩니다.
    → 만약 1월을 기준으로 한다면 SALES_DATE LIKE '%01%' 조건이 됩니다.

총 1개 인 것을 확인할 수 있습니다.

 

다음으로 저희가 GROUP BY 해야하는 부부은

  1. 저자 별 카테고리 별 : AUTHOR_ID, AUTHOR_NAME, CATEGORY, 
    → AUTHOR_NAME 는 AUTHOR_ID에 귀속되어져 있기 때문에 함께 GROUP BY 해주셔도 되고, 안해주셔도 됩니다만, 집계 함수를 제외한 나머지 컬럼은 최대한 모두 그룹화해주시는 것이 좋습니다.
    → AUTHOR_ID가 아닌 AUTHOR_NAME으로 그룹화를 하게되면, 동명이인 즉 이름은 동일하지만 다른 사람이 동일한 사람으로 집계가 되지 때문에 반드시 AUTHOR_ID가 기준이 되어야 합니다.

위와 같은 것을 확인할 수 있습니다.

 

마지막으로 저희가 문제에서 확인해야 하는 부분은

  1. 저자 ID 오름차순, 카테고리 내림차순 정렬 : ORDER BY AUTHOR_ID, CATEGORY DESC

총 1개인 것을 확인할 수 있습니다.

 

  • 쿼리 완성하기

이제 위에서 생각한 쿼리를 SQL 실행순서에 맞게 배치해주시면 됩니다.

그렇게 완성된 쿼리는 아래와 같습니다.

SELECT  b.AUTHOR_ID,
        AUTHOR_NAME,
        CATEGORY,
        SUM(PRICE*SALES) AS TOTAL_SALES
FROM    BOOK a
JOIN    AUTHOR b ON b.AUTHOR_ID=a.AUTHOR_ID
JOIN    BOOK_SALES c ON a.BOOK_ID=c.BOOK_ID
WHERE   SALES_DATE LIKE '2022-01%'
-- 숫자에 직접 컬럼 이름을 넣어주셔도 됩니다.
-- 각 숫자는 컬럼의 순서를 의미합니다.
GROUP BY 1,2,3
ORDER BY 1, 3 DESC

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

 

★읽어주셔서 감사합니다★

728x90
반응형
728x90
반응형

안녕하세요!

최근에 크롬 드라이버를 설치하는 페이지가 변경되어 새롭게 포스팅을 하겠습니다!

 

이전 포스팅이 궁금하신 분들은 아래 포스팅을 참고해주시면 됩니다!

https://yhj9855.com/entry/%ED%81%AC%EB%A1%AC%EB%93%9C%EB%9D%BC%EC%9D%B4%EB%B2%84ChromeDriver-%EC%84%A4%EC%B9%98%ED%95%98%EA%B8%B0

 

크롬드라이버(ChromeDriver) 설치하기

안녕하세요! 요즘 너무 바빠서 자주 글을 올리지 못하고 있네요ㅠㅠ 오늘은 동적 크롤링에 꼭 필요한 크롬드라이버(ChromeDriver)를 설치하는 방법에 대해서 포스팅 하겠습니다. 크롬드라이버란?

yhj9855.com

 

  • 크롬드라이버란?

컴퓨터가 크롬 브라우저를 제어할 수 있도록 해주는 프로그램입니다.

 

  • 크롬드라이버의 사용처

크롬드라이버는 컴퓨터 코드 크롬 브라우저에서 특정 행동을 하고 싶을 때 사용합니다.

※ 특정 행동은 스크롤을 내리거나, 버튼을 누르는 등의 행동을 예시로 들 수 있습니다.

크롬 브라우저를 직접 제어할 수 있기 때문에 URL이 변경되지 않는데 내용은 변경이 되는 동적 페이지 크롤링에 필수로 사용됩니다.

 

  • 크롬드라이버 설치하기

크롬드라이버는 크롬 버전과 버전이 맞지 않으면 코드에서 오류가 발생하기 때문에 꼭 동일한 버전의 크롬드라이버를 설치하는 것이 중요합니다.

크롬드라이버를 사용하는 selenium 패키지가 업데이트 되면서 크롬드라이버를 새롭게 설치할 필요가 없다고들 하는데, 저는 자꾸 오류가 발생해서 번거롭지만 버전에 맞는 크롬드라이버를 매번 다시 설치해주고 있습니다ㅠㅠ

크롬드라이버를 설치하는 과정은 아래와 같습니다.

 

1. 크롬을 최신 버전으로 업데이트 해줍니다.

최신 버전의 크롬이 가장 오류가 나지 않기 때문에 크롬드라이버를 설치하기 전에 크롬을 꼭 최신 버전으로 업데이트 해주세요!

 

2. 크롬의 버전을 확인합니다.

'제어' → '도움말' → 'Chrome 정보' 에서 크롬 버전을 확인할 수 있습니다.

여기서 제어는 크롬 내 X(창닫기 버튼) 아래에 있는 세로로 된 ... 을 의미합니다.

 

3. https://chromedriver.chromium.org/downloads 홈페이지에 접속합니다.

 

다운로드  |  ChromeDriver  |  Chrome for Developers

이 페이지는 Cloud Translation API를 통해 번역되었습니다. 다운로드 컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요. 달리 명시되지 않는 한 이 페이지의 콘텐츠

developer.chrome.com

구글에서 크롬드라이버를 검색했을 때, 가장 상단에 보이는 홈페이지와 동일한 홈페이지입니다!

 

4. 아래 이미지에 해당하는 부분을 클릭해줍니다.

메인 페이지가 변경되면서 다운로드 파일이 있는 곳으로 가는 버튼이 달라졌습니다!

현재 사용하시는 크롬은 무조건 115버전 보다 상위 버전이기 때문에 해당 부분을 클릭하여 최신 버전 다운로드 페이지로 이동해주세요!

 

5. 'Stable' 에서 자신에게 맞는 OS를 선택하여 다운로드를 받아줍니다.

다운로드는 URL을 복사하여 크롬 주소창에 입력해주면 자동으로 다운로드 진행이 됩니다.

자신에게 맞는 OS는 컴퓨터 내 '설정'  → '시스템'  → '시스템 종류'에서 확인 하실 수 있습니다!

728x90

※Stable에서 제공하는 크롬드라이버와 본인의 크롬 버전이 맞지 않을 경우

종종 크롬 업데이트가 잘 반영 되지 않아서, 현재 크롬 버전과 Stable에서 제공하는 크롬 버전이 다른 경우가 있습니다!

Stable에서 제공하는 크롬 버전은 아래 이미지처럼 확인이 가능합니다.

128.0.n.n 을 사용하시는 분들은 해당 버전이 맞지만, 127.n.n.n을 사용하시는 분들은 해당 버전이 맞지 않는데요!

이럴 경우에는 직접 검색을 하셔서 자신에게 맞는 크롬 드라이버 다운 링크를 찾으셔야 합니다.

 

1)  https://chromedriver.chromium.org/downloads 홈페이지에 다시 접속해주세요

뒤로 가기를 통해 메인 화면으로 돌아가셔도 됩니다!

 

2) 아래 이미지에 해당하는 부분을 클릭해줍니다.

 

3) 본인의 크롬 버전을 검색합니다.

검색은 Ctrl+F를 누르면 검색어를 입력할 수 있는 작은 창이 뜹니다.

해당 창에 자신의 크롬 버전을 검색해주시면 됩니다!

자신의 크롬 버전이 나타나지 않을 경우, 크롬 정보에서 가장 마지막 '.' 뒤를 제거하여 검색해주시면 됩니다!

예시) 크롬 버전: 127.0.6533.122 → 127.0.6533 을 검색

 

4) 본인의 크롬 버전과 동일하고 환경에 맞는 크롬 드라이버 다운로드 링크를 찾으시면 됩니다.

가장 마지막 '.' 뒤의 숫자는 달라도 같은 버전입니다!

예시) 127.0.6533.122의 크롬일 경우, 127.0.6533까지 동일한 파일이면 모두 호환 가능합니다.

 

다운로드 링크 찾는 방법

[1] chromedriver라는 값을 찾습니다.

 

[2] platform에서 자신에게 맞는 환경을 찾습니다.

저는 윈도우 64이기 때문에 해당 환경을 찾았습니다!

 

[3] url 값을 복사하여 주소창에 입력해줍니다.

자동으로 다운로드 되는 것을 확인하시면, 크롬 드라이버 다운로드가 잘 된 것입니다!

 

6. 설치 완료된 크롬드라이버 zip 파일에서 'chromedriver.exe' 파일만 복사하여, 코드가 있는 폴더에 옮겨줍니다.

같은 폴더에 있지 않으면, 코드가 인식하지 못하는 경우가 있어서 옮겨주는 것이 좋습니다.

 

이 과정을 통해서 최신 버전의 크롬드라이버를 설치할 수 있습니다!

크롬드라이버를 사용하여 동적 크롤링을 진행하는 포스팅은 다음에 진행하도록 하겠습니다.

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니다★

 

 

누아트 변색없이 투명한 갤럭시 일체형 투명 하드 케이스, 버즈3/버즈3프로, 투명, 1개

※ 이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

728x90
반응형
728x90
반응형

안녕하세요! 요즘 몸이 별로 좋지 않아서 블로그 글을 거의 쓰지 못했네요ㅠㅠ

오늘은 빅쿼리(BigQuery)와 파이썬을 연동하는 방법에 대해서 포스팅 하겠습니다.

 

  • 빅쿼리(BigQuery) 란?

구글 클라우드 플랫폼에서 제공하는 클라우드 기반의 데이터웨어 하우스 서비스입니다.

구글 계정으로 관리하기 쉽기 때문에 요즘 다양한 회사에서 빅쿼리를 사용하고 있습니다.

 

  • 파이썬이랑 연동하는 이유
  1. 대용량 결과물 저장
    빅쿼리에서는 기본적으로 결과물을 csv 파일로 저장하거나, 스프레드 시트로 저장하는 기능을 제공하고 있습니다.
    하지만 데이터 결과물의 용량이 너무 클 경우에는 일부 데이터를 소실할 수 있는데, 데이터 분석의 특성 상 대용량의 데이터를 다루는 경우가 많기 때문에 생각보다 데이터가 소실되는 경우를 자주 경험할 수 있습니다.
    이런 경우 빅쿼리와 파이썬을 연동하여 로컬 PC에 바로 csv 혹은 xlsx 파일로 결과물을 저장할 수 있습니다!
  2. 쿼리로 해결하기 힘든 데이터  처리
    쿼리에서는 데이터의 직접적인 비교 등 진행하기 어려운 작업들이 있기 때문에 파이썬과 연동하여 데이터를 원하는 목적에 맞게 정제할 수 있습니다.
  3. 데이터 시각화
    데이터 분석은 쿼리를 통해 데이터를 집계하는 것 뿐만 아니라, 보고서 등을 위해서 데이터를 시각화 하는 작업이 빈번하게 발생합니다.
    요즘은 파이썬에서 데이터 시각화를 많이 진행하기 때문에 연동하여 진행하면, 시각화 작업을 수월하기 진행할 수 있습니다.

  • 필요한 라이브러리 설치하기

빅쿼리와 파이썬을 연결하기 위해서는 먼저 pandas-gbq 라는 라이브러리를 설치해야 합니다.

일반 라이브러리 설치하시는 것처럼 설치해주시면 됩니다!

pip install pandas-gbq

 

  • 코드 작성

파이썬 코드를 실행할 수 있는 실행기에서 아래 코드처럼 빅쿼리에서 실행이 가능한 쿼리와 함께 코드를 작성해주시면 손쉽게 빅쿼리 결과물을 로컬에 저장할 수 있습니다!

query="""
	빅쿼리에서 실행할 쿼리
"""

purchase_log = pd.read_gbq(query=query, dialect='standard', project_id='빅쿼리 프로젝트 이름', auth_local_webserver=True)
purchase_log.to_csv(f"저장하고자 하는 파일 경로", sep=",", index=False, encoding='cp949')

 

※주의 ※

데어터의 양이 많을 경우 코드가 실행되는 시간이 길기 때문에 반드시 쿼리를 먼저 빅쿼리에서 확인 후에 파이썬에서 실행해주세요!

한글 데이터가 포함되는 경우 encoding='cp949'를 포함하지 않으면, 한글이 깨질 수 있습니다.

데이터의 양이 많다면 파일의 경로는 D드라이브로 하는 것을 추천합니다!

 

 

  • 계정 선택

해당 코드를 처음 실행을 할 경우에는 크롬이 자동으로 뜨면서, 빅쿼리와 연결된 계정 선택 및 엑세스 요청 허가를 확인합니다.

알맞은 계정과 엑세스 허용을 하시면, 정상적으로 코드가 실행됩니다!

계정 선택의 과정은 컴퓨터마다 한 번만 진행이 됩니다.

 

실행이 완료되면, pandas를 이용해서 데이터를 정상적으로 로드할 수 있습니다.

1500만 정도 되는 데이터도 아주 잘 로드가 되는 것을 볼 수 있습니다!

 

빅쿼리는 파이썬과 연동하지 않으면 대용량 데이터를 저장하는 방법이 빅쿼리 자체에 테이블로 저장하는 방법 밖에 없기 때문에 파이썬에서 실행하는 방법을 익혀두시는 걸 추천드립니다!

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니★

728x90
반응형
728x90
반응형

안녕하세요!

오늘은 붕괴 스타레일 2.1 업데이트 모든 캐릭터 유물 및 차원 장식구 세팅 포스팅을 진행하겠습니다.

 

캐릭터의 유물, 차원 장신구 세팅은 엑셀 내 저장되어 있으며, 조회를 통해서 쉽게 보실 수 있습니다!

엑셀 파일을 조회하는 방법은 아래 포스팅을 참고해주세요:)

https://yhj9855.com/entry/%EB%B6%95%EA%B4%B4-%EC%8A%A4%ED%83%80%EB%A0%88%EC%9D%BC-%EC%9C%A0%EB%AC%BC-%EC%B0%A8%EC%9B%90-%EC%9E%A5%EC%8B%A0%EA%B5%AC-%EC%84%B8%ED%8C%85-%EC%97%91%EC%85%80-%ED%8C%8C%EC%9D%BC-%EC%82%AC%EC%9A%A9%ED%95%98%EB%8A%94-%EB%B0%A9%EB%B2%95

 

[붕괴 스타레일] 유물, 차원 장신구 세팅 엑셀 파일 사용하는 방법

안녕하세요. 오늘은 제가 만든 스타레일 유물, 차원 장신구 세팅이 담긴 엑셀 파일을 사용하는 방법에 대해서 포스팅 하겠습니다. 스타레일도 원신과 비슷하게 유물과 차원 장신구를 세팅해주

yhj9855.com

 

2.1 업데이트 기준으로 어벤츄린까지 캐릭터가 존재합니다.

유물 및 차원 장신구 세팅의 정보는 나무위키를 기반으로 하고 있습니다!

 

이번에 아케론과 어벤츄린 신규 캐릭터가 출시되었습니다!

아케론은 이전 캐릭터들과는 완전 다른 필살기를 가지고 있는데, 연출이 일단 너무 멋있어서 좋았습니다...

원신의 라이덴을 어느 정도 모티브 삼고 있기 때문에 확실히 비슷한 느낌이 들어서 좋은 느낌입니다!

아주 강력한 메인 딜러이기 때문에 파티가 조금 경직되는 감이 있어도 앞으로 자주 쓸 것 같네요.

 

아케론은 이번에 새로 나온 사수에 잠수한 선구자 4세트+이즈모 현세와 타카마 신국 2세트가 가장 베스트입니다.

사실상 사수에 잠수한 선구자는 아케론 쓰라고 나온 유물 느낌이 강해서 완전 찰떡인 친구입니다.

주옵션은 치명타 확률, 공격력 백분율 혹은 번개 속성 피해 증가로 맞춰주시면 됩니다.

 

 

어벤츄린은 일단 방어력 4000을 맞춰야 제대로 사용할 수 있기 때문에 방어력 4000을 맞추는데 힘들었네요ㅠㅠ

그래도 실드량이 진짜 어마무시해서 키워준 보람은 있는 캐릭터입니다. (게파드 안녕..)

 

어벤츄린은 정토 교황의 팔라딘 4세트+회전을 멈춘 살소토 2세트가 가장 베스트인 것 같아요!

아무래도 방어력 4000을 올려줘야 하기 때문에 거의 주옵션은 방어력 백분율로 맞추시면 됩니다.

 

자세한 유물 설명은 엑셀 파일에 있으니 사용해보시길 추천드립니다!

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

엑셀 파일은 아래 파일을 다운 받아주세요!

스타레일(2.1업데이트 기준).xlsx
0.09MB

 

★읽어주셔서 감사합니다★

728x90
반응형
728x90
반응형

안녕하세요!

오늘은 프로그래머스 SQL 고득점 Kit 중 JOIN 분야의 '있었는데요 없었습니다' 문제 리뷰를 진행하겠습니다.

 

문제는 아래 링크에서 확인해주시면 됩니다.

https://school.programmers.co.kr/learn/courses/30/lessons/59043

 

프로그래머스

코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요.

programmers.co.kr

 

  • 문제 설명

 

  • 문제

 

  • 예시

 

  • 문제를 파악하여 쿼리 생각하기

예시에서 볼 수 있듯이, 저희가 문제에서 SELECT 해야하는 부분은 동물의

  1. ID: A.ANIMAL_ID
  2. 이름: A.NAME
    → A는 ANIMAL_INS 테이블, B는 ANIMAL_OUTS 테이블을 의미합니다.
    → ID와 이름은 각 테이블에서 같이 포함되어 있기 때문에 어느 테이블에 존재하는지 꼭 명시를 해야합니다.
    → 여기서는 A, B 어느 테이블에 있는 값을 가지고 와도 동일한 값을 SELECT 합니다.

총 2개인 것을 확인할 수 있습니다.

 

다음으로 두 개의 테이블을 JOIN 해야하는 부분은

  1. ANIMAL_INS 테이블과 ANIMAL_OUTS 테이블을 동시에 만족: JOIN ANIMAL_OUTS B
    → 두 테이블을 동시에 만족해야 하기 때문에 내부 조인을 사용하는데, JOIN 혹은 INNER JOIN 으로 표기하시면 됩니다.
    → ANIMAL_OUTS을 FROM에 두고, ANIMAL_INS 테이블로 JOIN을 해도 상관 없습니다.
  2. 두 테이블에서 값이 동일한 컬럼이 기준: ON A.ANIMAL_ID=B.ANIMAL_ID
    → 두 테이블에서 동일한 값이 여러 개 있으나, 문제에서 ANIMAL_OUTS의 ANIMAL_ID는 ANIMAL_INS의 ANIMAL_ID의 외래 키라고 하였기 때문에 ANIMAL_ID로 JOIN하는 것이 좋습니다.
    → NAME, ANIMAL_TYPE 과 같은 값으로 JOIN을 할 경우, 테이블 내에 중복 값으로 인해 원하는 대로 JOIN이 되지 않을 가능성이 높습니다.

위와 같은 것을 확인할 수 있습니다.

 

다음으로 저희가 WHERE 조건으로 확인해야 하는 부분은

  1. 보호 시작일보다 입양일이 더 빠른 동물: A.DATETIME > B.DATETIME

총 1개인 것을 확인할 수 있습니다.

 

마지막으로 저희가 문제에서 확인해야 하는 부분은

  1. 결과는 보호 시작일이 빠른 순으로 조회: ORDER BY A.DATETIME

총 1개인 것을 확인할 수 있습니다.

 

 

  • 쿼리 완성하기

이제 위에서 생각한 쿼리를 SQL 실행순서에 맞게 배치해주시면 됩니다.

그렇게 완성된 쿼리는 아래와 같습니다.

SELECT 
    A.ANIMAL_ID, A.NAME
FROM 
    ANIMAL_INS A
JOIN 
    ANIMAL_OUTS B ON A.ANIMAL_ID = B.ANIMAL_ID
WHERE 
    A.DATETIME > B.DATETIME
ORDER BY 
    A.DATETIME

 

궁금한 부분이 있으신 분들은 댓글로 남겨주시면, 답변 드리도록 하겠습니다.

★읽어주셔서 감사합니다★

728x90
반응형

+ Recent posts