[BOJ] 2609. 최대공약수와 최소공배수
https://www.acmicpc.net/problem/2609 문제 두 개의 자연수를 입력받아 최대 공약수와 최소 공배수를 출력하는 프로그램을 작성하시오. 입력 첫째 줄에는 두 개의 자연수가 주어진다. 이 둘은 10,000이하의 자연수이며 사이에 한 칸의 공백이 주어진다. 출력 첫째 줄에는 입력으로 주어진 두 수의 최대공약수를...
https://www.acmicpc.net/problem/2609 문제 두 개의 자연수를 입력받아 최대 공약수와 최소 공배수를 출력하는 프로그램을 작성하시오. 입력 첫째 줄에는 두 개의 자연수가 주어진다. 이 둘은 10,000이하의 자연수이며 사이에 한 칸의 공백이 주어진다. 출력 첫째 줄에는 입력으로 주어진 두 수의 최대공약수를...
https://hanium.udemy.com/course/keras-deep-learning/learn/lecture/9343372#reviews RNN vs DNN DNN input이 2개가 있다면 각 input이 서로 feedforward 계산을 통해 y output 타겟값과 비교가 되어 error funct...
https://hanium.udemy.com/course/keras-deep-learning/learn/lecture/9359716#reviews RNN 가진 데이터의 종류에 따라, 어떻게 학습시키고 싶은지에 따라 Many to One Input 여러개 - 한개의 Output 가장 많이 사용 ...
https://www.acmicpc.net/problem/1037 문제 양수 A가 N의 진짜 약수가 되려면, N이 A의 배수이고, A가 1과 N이 아니어야 한다. 어떤 수 N의 진짜 약수가 모두 주어질 때, N을 구하는 프로그램을 작성하시오. 입력 첫째 줄에 N의 진짜 약수의 개수가 주어진다. 이 개수는 50보다 작거나 같은 자연수이다....
https://www.acmicpc.net/problem/1316 문제 그룹 단어란 단어에 존재하는 모든 문자에 대해서, 각 문자가 연속해서 나타나는 경우만을 말한다. 예를 들면, ccazzzzbb는 c, a, z, b가 모두 연속해서 나타나고, kin도 k, i, n이 연속해서 나타나기 때문에 그룹 단어이지만, aabbbccb는 b가 떨어져서...
1. 데이터 전처리 데이터를 머신러닝 모델에 입력하기 위해 적절히 처리하는 과정 EDA / 모델이나 목적에 따라 달라지는 데이터 전처리 선형 모델인지, 트리인지, 딥러닝인지 등에 따라 방식 달라짐 연속형 변수 Scaling 데이터의 단위 또는 분포 변경 선형 기반의 모델의 경우 변수들 간의 scale을 맞추는 것이 필수적...
https://www.acmicpc.net/problem/1145 문제 다섯 개의 자연수가 있다. 이 수의 적어도 대부분의 배수는 위의 수 중 적어도 세 개로 나누어 지는 가장 작은 자연수이다. 서로 다른 다섯 개의 자연수가 주어질 때, 적어도 대부분의 배수를 출력하는 프로그램을 작성하시오. 입력 첫째 줄에 다섯 개의 자연수가 주어진다....
IT WORLD https://www.itworld.co.kr/tags/149449/코파일럿/283279 마이크로소프트가 과거에도 클리피(Clippy) 도우미 봇을 만들었던 것을 고려하면 코파일럿(Copilot)의 AI 툴도 딱히 놀라운 무언가는 아니다. 그러나 마이크로소프트 오피스에 AI와 자연어를 적용해 보니 작업 방식을 완전히 혁신할 수 있...
1. Underfitting & Overfitting fit 데이터를 잘 설명할 수 있는 능력 Underfitting: 데이터를 설명하지 못함 Overfitting: 데이터를 과하게 설명함 under - 적절 - over overfitting 우리의 데이터셋은 전체의 일부분 확보한...
1. 정형 데이터 structured, tabular data 엑셀 파일 형식이나 RDB 테이블에 담을 수 있는 데이터로, 행과 열로 표현 가능한 데이터 하나의 행은 데이터 인스턴스 각 열은 데이터의 피처(속성)을 나타냄 비정형 데이터 이미지, 비디오, 음성 자연어 등 정제되지 않고 테이블 형태로 표현될 수 없는 데이터 ...