일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 4948
- 실버
- 재귀
- N-Queen
- 15649
- 경사하강법
- streamlit
- 백준
- 손실함수
- BOJ
- n과 m
- 1101
- 신경망 학습
- Python
- 파이싼
- 파이썬
- 가상환경
- 그리디 알고리즘
- 기계학습
- 백트래킹
- 설정
- 1002
- 개발환경
- Mac
- end to end
- pyenv
- 9020
- 밑바닥부터 시작하는 딥러닝
- Today
- Total
목록전체 글 (181)
파이톨치
Mac 프로토콜 : link layer Mac sub layer? broadcast (shared wire) Hub: 자기가 목적지가 아니어도 다 받는다. 뿌리기. (Hub 역할), switch랑 모양은 비슷함. 무선도 다 공유됨. P2P라인이 없음. Switch: P2P 라인을 쓴다. 얘는 나랑 너만 데이터 전송함. => Mac 프로토콜을 잘 제어ㅐ해야함. 내가 혼자 사용해야 함. 그럼에도 에러는 있음. -> 때문에 에러제어 프로토콜이 돌아감. Multiple access protocol collision: 2개 이상의 노드가 데이터를 보내는 것임. 케리어가 정보를 실고 간다. 근데 겹쳐버림. 중첩되는 경우 엉망이 되어버림. 때문에 Media access control (Mac)이 필요하다. 이는 di..
“3.26 컴퓨터학의 이해” rwx rwx rwx => 111 100 100(8진수) => 7 4 4(10진수) A2(16진수) => 1010 0010(2진수) 변환 계산을 다루진 않음? 8진수는 3자리, 16진수(0x)는 4자리씩 끊어서 사용함. 워드 => 16비트 시절 용어, 운영체제 따라서 다르다. 32비트, 64비트(QWard) 정보의 단위임. “”1의 보수”” 왜 사용하는가? 음수를 만들기 위해서 사용함. 얘는 다 바꾸면 되는데 (겹쳐서 안 쓴다) “”2의 보수”” 얘는 1의 보수 + 더하기 1. 왼쪽 부호비트(Most Significant Bit) 정규화 사용하는 이유는? 부동소수점은? 정밀도의 의미는? 32비트 단정도? 64비트 배정도? => 정밀도 2배 이상?됨 문자와 코드표 - 아스키코드..
# Wireless protocol issues TCP: transport control protocol, 양방향 확인하는 통신임. DataLink(2계층)에서 IoT에 특화된 프로토콜 IoT(사물인터넷)는 일반적인 네트워크 환경과는 다른 특성을 가지고 있습니다. IoT 장치들은 대부분 "에너지 효율적"이어야 하며, "작은 메시지"를 주고받고, "제한된 컴퓨팅 자원"을 가지고 있습니다. 이러한 특성에 맞추어 IoT에 특화된 데이터 링크 계층 프로토콜들이 개발되었습니다. 1. 주소 크기의 제한 일반적인 네트워크에서 사용되는 MAC 주소는 48비트로 이루어져 있고, IP 주소는 32비트(IPv4) 또는 128비트(IPv6)로 이루어져 있습니다. 그러나 IoT 장치에서는 이렇게 큰 주소를 사용하기에는 오버헤드..
# Introduction nodes: host와 router link: 인접 노드끼리 상호작용하는 채널, Wired links, wireless links, LANs가 있다. 2계층 패킷을 frame이라고 부른다. 패킷을 캡슐화 한 것이다. data link 층은 물리적으로 인접한 노드로 패킷을 보내야 하는 의무가 있다. Peer 2 Peer로의 안정적인 데이터 통신을 한다. # Link layer Services keyword: framing, link access, reliable delivery, flow control, error detection, error correction, half-duplex, full-duplex framing: 패킷을 프레임으로 캡슐화하기. MAC 주소를 붙인다. ..
https://kimbg.tistory.com/31 [ML] ViT(20.10); Vision Transformer 코드 구현 및 설명 with pytorch AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE https://arxiv.org/pdf/2010.11929.pdf vit 논문에 관련한 양질의 리뷰는 상당히 많아서, 코드 구현에 관한 설명만 정리하고자 했습니다. 그래도 중 kimbg.tistory.com ## input ## x = torch.randn(8, 3, 224, 224) print('x :', x.shape) patch_size = 16 # 16x16 pixel patch patches = rearra..
n = int(input()) t = [] for i in range(n): t.append(tuple(map(int, input().split()))) t.sort(key = lambda x : x[1], reverse=True) # print(t) now = t[0][1] for i in range(n): if now > t[i][1]: now = t[i][1] task = t[i][0] now = now - task # print(now, t[i][1]) if now < 0: print(-1) else: print(now)
start, end = map(int, input().split()) a = end - start answer = 0 k = 0 while(1): # print(a, 10**k, int(start/(10**k))% 10) if a > 10 ** k: k += 1 else: if int(start/(10**k))%10 == 8: if int((start+a)/(10**k))%10 == 8: answer += 1 k += 1 if 10 ** k > end: break print(answer)
from string import ascii_uppercase alphabet_dict = {} for i in ascii_uppercase: alphabet_dict[i] = 0 # print(alphabet_dict) s = input() for i in range(len(s)): alphabet_dict[s[i]] += 1 # print(alphabet_dict) answer = "" check = 0 mid = "" for i in ascii_uppercase: if alphabet_dict[i]%2==0: alphabet_dict[i] -= 2 while alphabet_dict[i]>=0: answer += i alphabet_dict[i] -= 2 # 홀수인 경우 else: if check ..