뉴런 스터디팁 자녀의 학습 효과를 높이는 방법

뉴런 스터디팁 자녀의 학습 효과를 높이는 방법

뉴런과 신경망은 신경계의 어려운 구조 내에서 상호 연결된 요소들입니다. 뉴런은 우리 몸에 있는 특별한 세포로 신경계의 기본요소이자, 의사소통을 지원합니다. 그들은 전기적 및 화학적 신호를 통해 정보를 넘겨주는 특수화된 세포로 세 가지 주요 부분으로 구성되어 있습니다. 세포체, 수상돌기, 축색돌기로 하나하나씩 다른 역할을 가지고 있으며, 이들은 서로 다른 특성들을 가지고 있습니다. 세포체는 세포 내에서도 중요한 기능을 수행하는 세포 내 구조물이며, 세포의 대사 활동에도 관여하며, 들어오고 나가는 신호를 생성할 수 있습니다.

수상돌기는 뉴런의 신호를 받으며, 다른 뉴런에서 전해지는 신호를 받아들입니다. 마지막으로 축색돌기는 내보내는 부분으로 수상돌기에서 처리된 신호를 다른 세포로 전달합니다.


뇌 가소성이라고도 보고된 신경 가소성
뇌 가소성이라고도 보고된 신경 가소성

뇌 가소성이라고도 보고된 신경 가소성

뇌 가소성이라고도 보고된 신경 가소성은 평생 동안 적응하고 변화하는 뇌의 깜짝 놀랄만한 능력을 가리키며, 경험, 학습 및 환경 자극에 대한 반응으로 구조와 기능을 재구성하는 것을 말합니다. 신경 가소성은 학습, 기억 형성, 뇌 손상으로부터의 회복, 새로운 기술 습득 능력의 기초가 되는 것을 말합니다.

1. 구조적 가소성 뉴런 사이의 새로운 연결형성시냅스 생성, 혹은 이전 연다짐 수정시냅스 가지치기 등으로 뇌의 물리적 구조가 변화하는 것을 말하며, 또한 시냅스 통신을 단순하게 하는 수상돌기의 작은 돌출부인 수상돌기 가시의 밀도 변화를 수반할 수 있습니다.

Tensorflow에서의 난수 생성
Tensorflow에서의 난수 생성

Tensorflow에서의 난수 생성

Uniform균일 분포 난수uniform함수는 균일 분포의 난수를 얻는 함수입니다. 균일 분포uniform distribution란 최댓값과 최솟값 사이에 있는 모든 수가 나올 확률이 동일한 분포를 의미합니다.

shape 위에서 선언한 1은 return되는 난수의 모양행과 열등의 차원을 의미합니다. minval 최솟값 maxval 최댓값 rand tf.random.uniform1, 0, 1 Normal정규 분포 난수정규 분포normal distribution는 가운데가 높고 양극단으로 더해 질수록 낮아지는 분포를 의미합니다.

shape 이 매개변수는 uniform과 동일합니다. mean: 평균값을 의미합니다.

뉴런Neuron

뉴런은 신경망의 가장 보편적인 구성요소입니다. 이를 퍼셉트론이라고도 부르며, 입력을 받아서 계산하여 출력하는 구조로 이루어집니다. 활성 함수Activation Function에 관련해서 살펴보겠습니다. 앞선 포스팅에서 자주 사용되는 세가지의 활성 함수를 살펴보았습니다. 그 중에서도 sigmoid와 ReLU함수를 사용하여 뉴런을 만들어보겠습니다. 위와 같은 공식으로 생각을 하면 쉽습니다. 가중치와 입력값을 넣으면 출력값이 나오도록 설정해주시면 됩니다.

여기서 가중치는 정규분포의 난수로 설정하였습니다. sigmoid 사용하는 뉴런 만들기x = 1이고, 가중치 w를 정규 분포 난수로 선언하였습니다. 이것을들 sigmoid함수에 넣어주면 출력이 나옵니다. (아래의 출력값은 가중치 초기화 난수에 따라 달라집니다.

시그모이드 함수의 특징

1. 출력 범위 입력값 x가 어떤 실수라도, 시그모이드 함수의 출력은 언제나 0과 1사이의 값으로 제한됩니다. 이는 뉴런의 활성화를 제한하여 출력이 2진 분류 혹은 확률값으로 사용될 수 있게 합니다. 2. 비선형성 시그모이드 함수는 비선형 활성화 함수로, 입력값에 대한 비선형적인 변화를 제공합니다. 이는 다측 퍼셉트론과 같이 비선형 이슈를 해결하는데 중요한 역할을 합니다. 3. 경사 소실 문제 큰 입력값에 대하여 시그모이드 함수의 미분값은 아주 작아질 있습니다.

이로 인해 역전파Back propagation 알고리즘을 사용하는 딥러닝 모델에서 기울기 소실Gradient Vanishing 문제가 발생할 있습니다. 최근에는 ReLU(Rectified Linear Unit)와 같은 다른 활성화 함수들이 널리 사용되고 있으며, 시그모이드 함수는 특히 출력층에서 2진 분류 문제나 특정 범위로 제한된 출력이 필요한 경우에 사용됩니다.

자주 묻는 질문

뇌 가소성이라고도 보고된 신경

뇌 가소성이라고도 보고된 신경 가소성은 평생 동안 적응하고 변화하는 뇌의 깜짝 놀랄만한 능력을 가리키며, 경험, 학습 및 환경 자극에 대한 반응으로 구조와 기능을 재구성하는 것을 말합니다. 자세한 내용은 본문을 참고 해주시기 바랍니다.

Tensorflow에서의 난수

Uniform균일 분포 난수uniform함수는 균일 분포의 난수를 얻는 함수입니다. 자세한 내용은 본문을 참고하시기 바랍니다.

뉴런Neuron

뉴런은 신경망의 가장 보편적인 구성요소입니다. 좀 더 자세한 사항은 본문을 참고해 주세요.