이 연습에서는 XOR 데이터를 다시 사용하지만 반복성을 살펴봅니다.
초기화의 중요성에 대해 알아보겠습니다.
작업 1: 주어진 모델을 4~5회 실행합니다. 각 시험 전에
네트워크 초기화 버튼을 눌러 임의로 새로 초기화합니다.
네트워크 초기화 버튼은 화면 상단의 원형 초기화 화살표입니다.
를 누릅니다.) 각 시험을 500단계 이상 실행하기
수렴이 보장됩니다 각 모델 출력이 어떤 형태로 수렴되나요?
이 결과가 비볼록에서 초기화의 역할에 대해 무엇을 알 수 있을까요?
최적화하시겠습니까?
작업 2: 레이어를 추가하여 모델을 조금 더 복잡하게 만들어 보세요.
두 개의 추가 노드가 있습니다 작업 1의 시도를 반복합니다. 이 작업은
결과에 안정성을 더해주나요?
(정답은 실습 바로 아래에 표시됩니다.)
작업 1의 답을 보려면 더하기 아이콘을 클릭하세요.
학습된 모델은 실행할 때마다 다른 형태를 가졌습니다. 수렴
테스트 손실은 최저에서 최고로 거의 2배 달랐습니다.
작업 2의 답을 보려면 더하기 아이콘을 클릭하세요.
레이어와 추가 노드를 추가하여 더 반복 가능한 결과를 얻었습니다.
각 실행에서 결과 모델은 거의 동일했습니다. 또한
수렴 테스트 손실은 실행 간의 편차가 적었습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-08-22(UTC)"],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]