본문 바로가기

책 서평

[서평]신경망 교과서

반응형

2015년 구글의 알파고 등장 이후 2020년인 지금까지 많은 사람들이
인공지능에 대해 관심도가 높아졌으며, 이를 공부하기 위한 사람들도 점점 증가하고 있다.

그에 맞게 많은 출판사에서 딥러닝과 머신러닝에 대한 책을 출판하고 있으며,
그중 길벗이라는 출판사의 Facebook페이지를 통해 진행한 이벤트에 응모하여 리뷰어에 선정되었다.

Facebook 페이지를 통해 공개 모집한 리뷰어 글

나는 '신경망 교과서'라는 책을 신청하여 출판사를 통해 책을 제공받았으며,
간단하게 책의 목차 및 내용을 시작으로 책의 장단점, 예상 독자를 안내하려고 한다.

신경망 교과서 표지 (출처: 길벗 홈페이지)

목차


책의 목차는 다음과 같다.

1장 머신 러닝과 신경망 개론
2장 다중 레이어 퍼셉트론을 사용한 당뇨 예측
3장 심층 전방향 신경망을 사용한 택시 요금 예측
4장 컨볼루션 신경망을 사용한 이미지 분류
5장 오토 인코더를 사용한 이미지 노이즈 제거
6장 LSTM을 사용한 영화 리뷰 감성 분석
7장 샴 신경망을 사용한 안면 인식
8장 신경망과 인공 지능의 미래

책의 목차는 크게 8장으로 구성되어 있으며, 머신 러닝과 신경망을 시작으로 CNN, RNN, LSTM 등
딥러닝 모델에 대해 공부하고 Keras를 사용하여 모델을 직접 구현까지 해 볼 수 있다.

또한 딥러닝을 공부해본 사람이라면 한 번쯤은 들어봤을 Kaggle에서 데이터셋을 다운로드하여
직접 실습해보면서 모델에 대해 익힐 수 있다.

신경망 교과서 중 일부 

장단점


이 책의 가장 큰 장점은 Kaggle을 사용해볼수 있다는것이 가장 크다.

다른 책의 경우 keras자체적으로 제공하는 데이터 혹은 scikit-learn에서 제공하는 데이터셋을
다운받아 실습을 진행하는 경우가 대다수 이다.

하지만 이 책의 경우 Kaggle에서 제공되는 데이터셋을 사용하여 실습을 진행하였고, 가장 큰 장점으로 선정한 이유는
딥러닝을 공부하다보면 자연스럽게 다양한 데이터셋을 사용하여 모델에 적용해보고 싶은 경우가 있다.
하지만 그 데이터셋을 구하기에는 굉장히 어렵고 오래걸린다.

그렇지만 Kaggle은 많은 양의 데이터셋이 공개되어 있고, 대회가 있을만큼 딥러닝을 공부한 사람이라면
한번쯤은 Kaggle을 사용해보면서 직접 경험해보는것이 중요하다고 생각하기 때문이다.

이 책의 단점은 Keras와 TensorFlow에 대한 설명만 나와있으며, 초심자가 접하기에는 다소 어려운 책이다.

딥러닝 프레임워크는 Keras을 제외하고 Pytorch, Caffe등 다양한 프레임워크가 존재한다.
하지만 이 책에서는 다른 프레임워크에 대해서는 언급을 하지 않았으며, 초심자가 이 책을 통해 처음 접하게 된다면
Keras와 TensorFlow만 딥러닝 프레임워크라고 생각할것 같다. 또한 실습 위주의 설명이 되어 있기 때문에
Python언어를 모르는 사용자나 딥러닝 이론을 모르는 초심자가 접하게 될 경우
코드 설명이 되어 있는 부분은 이해하기 어려울 것이다.
(이는 책 초반 예상독자에 기재되어 있는 부분이기도 하다.)

 

예상독자


위에서 언급했지만 책 첫페이지를 열게 되면 대상 독자가 기재되어 있다.

첵에서는 다음과 같이 기재 되어 있다.

책은 파이썬으로 신경망을 만들고 싶은 데이터 과학자, 머신 러닝엔지니어, 딥러닝 엔지니어에게 적합하다. 파이썬과 머신 러닝이 기본 지식을 어느 정도 갖추고 있어야 책의 프로젝트를 따라 할 수 있다.

책에 기재되어 있는것과 같이 파이썬 및 머신 러닝에 대한 기본 지식이
없는 사람이 처음 접하게 된다면, 내용을 이해하기 어렵고 실습 코드 또한 이해하지 못할 것이다.

이에 따라 내가 생각한 예상 독자는
"머신 러닝과 딥 러닝의 차이점을 알고 기본적인 지식이 있으며, 파이썬을 다룰 수 있는 사람"
이다.

 

[본 글은 Facebook 페이지(길벗 IT전문서)에서 진행한 13차 개발자 리뷰어로 선정되어
출판사에서 무상으로 제품을 제공받아 작성한 글입니다.]

반응형


Calendar
«   2024/04   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
Visits
Today
Yesterday