본문으로 바로가기

countingalaxy

현재위치 :: HOME BLOG CATEGORY SEARCH ARCHIVE TAGS MEDIA LOCATION GUESTBOOK

네비게이션

  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록
관리자
  • 블로그 이미지
    므낫

    링크추가
  • 글쓰기
  • 환경설정
  • 로그인
  • 로그아웃

시그모이드 함수 검색 결과

해당 글 1건

ch3 - 신경망, 활성화 함수 + 자연어 처리 강의

Artifical Neral Networks (ANN) - 강의 신경망은 실수형으로 구성된 vector를 인풋으로 받아 weight를 곱하고, 이 inputs의 선형 합을 계산한다. (w0은 편향, w0은 항상 1이다.) (계단 함수를 활성화함수로 사용할 경우) 선형 합이 0보다 클 경우 Output은 1, 아니라면 -1이다. Neurons integrate information 뉴런은 정보를 통합한다. Neurons pass information about the level of their input 뉴런은 인풋 레벨의 정보를 pass한다(넘겨준다). Brain structure is layered 뇌구조는 layered하다 (여러 층으로 이루어져 있다) The influence of one neuro..

공부/밑바닥부터 시작하는 딥러닝 2019. 9. 11. 11:16
  • 이전
  • 1
  • 다음

사이드바

NOTICE

  • 전체 보기
MORE+

CATEGORY

  • 분류 전체보기 (73)
    • 리뷰 (2)
    • language (21)
      • Python (0)
      • Java (0)
      • JavaScript (15)
    • 웹 (4)
    • 알고리즘 (31)
    • 공부 (5)
      • 칸아카데미 선형대수학 (2)
      • 자연어처리 (0)
      • 밑바닥부터 시작하는 딥러닝 (3)
    • 교육 및 강연 (3)
      • 인공지능 기초 (3)
    • 취준 (0)
    • 시행착오들 (2)
    • daily (1)

RECENTLY

  • 최근 글
  • 최근 댓글

최근 글

최근댓글

Trackback

TAG

  • 정렬
  • 13460
  • ReLU 함수
  • 시그모이드 함수
  • 백준
  • 활성화함수
  • Artificial Neural Networks
  • Python
  • 주사위굴리기
  • 퍼셉트론
  • 계단함수
  • programmars
  • 2048(easy)
  • 파이썬
  • boj
MORE+

ARCHIVE

CALENDAR

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

LINK

VISITOR

오늘
어제
전체
  • 홈으로
  • 방명록
  • 로그인
  • 로그아웃
  • 맨위로
SKIN BY COPYCATZ COPYRIGHT countingalaxy, ALL RIGHT RESERVED.
countingalaxy
블로그 이미지 므낫 님의 블로그
MENU
  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록
CATEGORY
  • 분류 전체보기 (73)
    • 리뷰 (2)
    • language (21)
      • Python (0)
      • Java (0)
      • JavaScript (15)
    • 웹 (4)
    • 알고리즘 (31)
    • 공부 (5)
      • 칸아카데미 선형대수학 (2)
      • 자연어처리 (0)
      • 밑바닥부터 시작하는 딥러닝 (3)
    • 교육 및 강연 (3)
      • 인공지능 기초 (3)
    • 취준 (0)
    • 시행착오들 (2)
    • daily (1)
VISITOR 오늘 / 전체
  • 글쓰기
  • 환경설정
  • 로그인
  • 로그아웃
  • 취소

검색

티스토리툴바