상세정보
미리보기
트랜스포머를 활용한 자연어 처리
- 저자
- 루이스 턴스톨,레안드로 폰 베라,토마스 울프 공저/박해선 역
- 출판사
- 한빛미디어
- 출판일
- 2022-12-12
- 등록일
- 2023-11-10
- 파일포맷
- PDF
- 파일크기
- 9MB
- 공급사
- YES24
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
자연어를 찰떡같이 알아듣는 트랜스포머 완벽 해부하기 트랜스포머는 우리 주변에 가득하다! 트랜스포머 아키텍처는 순식간에 자연어 처리 분야를 지배했다. 기자처럼 뉴스를 작성하고, 프로그래머의 코드를 자동 완성하며, 사람들이 원하는 그림을 그려내고 있다. 이 책은 데이터 과학자나 프로그래머가 트랜스포머 모델을 훈련하고 확장할 수 있도록 허깅페이스의 트랜스포머스 라이브러리를 활용하는 실용적인 방법을 안내한다. 허깅페이스에서 트랜스포머스 라이브러리를 개발한 엔지니어들이 직접 예제 코드를 설명하며 트랜스포머의 작동 원리와 이를 사용한 문제 해결법, 실제 애플리케이션 도입법까지 차근차근 소개한다. 나만의 트랜스포머를 훈련시키는 방법을 배우고 자연어 처리를 정복해보자.
저자소개
허깅페이스의 머신러닝 엔지니어다. 스타트업과 기업을 위해 NLP, 위상 기반 데이터 분석(topological data analysis), 시계열 분야의 머신러닝 애플리케이션을 만들었다. 이론 물리학으로 박사 학위를 받고 호주, 미국, 스위스에서 연구를 수행했다. 현재는 NLP 커뮤니티를 위한 도구를 개발하며 이를 효율적으로 사용하는 방법을 가르치는 일에 열중한다.
목차
CHAPTER 1 트랜스포머 소개_1.1 인코더-디코더 프레임워크_1.2 어텐션 메커니즘_1.3 NLP의 전이 학습_1.4 허깅페이스 트랜스포머스_1.5 트랜스포머 애플리케이션 둘러보기__1.5.1 텍스트 분류__1.5.2 개체명 인식__1.5.3 질문 답변__1.5.4 요약__1.5.5 번역__1.5.6 텍스트 생성_1.6 허깅페이스 생태계__1.6.1 허깅페이스 허브__1.6.2 허깅페이스 토크나이저__1.6.3 허깅페이스 데이터셋__1.6.4 허깅페이스 액셀러레이트_1.7 트랜스포머의 주요 도전 과제_1.8 결론CHAPTER 2 텍스트 분류_2.1 데이터셋__2.1.1 허깅페이스 데이터셋 처음 사용하기__2.1.2 데이터셋에서 데이터프레임으로__2.1.3 클래스 분포 살펴보기__2.1.4 트윗 길이 확인_2.2 텍스트에서 토큰으로__2.2.1 문자 토큰화__2.2.2 단어 토큰화__2.2.3 부분단어 토큰화__2.2.4 전체 데이터셋 토큰화하기_2.3 텍스트 분류 모델 훈련하기__2.3.1 트랜스포머를 특성 추출기로 사용하기__2.3.2 트랜스포머 미세 튜닝하기_2.4 결론CHAPTER 3 트랜스포머 파헤치기_3.1 트랜스포머 아키텍처_3.2 인코더__3.2.1 셀프 어텐션__3.2.2 피드 포워드 층__3.2.3 층 정규화 추가하기__3.2.4 위치 임베딩__3.2.5 분류 헤드 추가하기_3.3 디코더_3.4 트랜스포머 유니버스__3.4.1 트랜스포머 가계도__3.4.2 인코더 유형__3.4.3 디코더 유형__3.4.4 인코더-디코더 유형_3.5 결론CHAPTER 4 다중 언어 개체명 인식_4.1 데이터셋_4.2 다중 언어 트랜스포머_4.3 XLM-R 토큰화__4.3.1 토큰화 파이프라인__4.3.2 SentencePiece 토크나이저_4.4 개체명 인식을 위한 트랜스포머_4.5 트랜스포머 모델 클래스__4.5.1 바디와 헤드__4.5.2 토큰 분류를 위한 사용자 정의 모델 만들기__4.5.3 사용자 정의 모델 로드하기_4.6 NER 작업을 위해 텍스트 토큰화하기_4.7 성능 측정_4.8 XLM-RoBERTa 미세 튜닝하기_4.9 오류 분석_4.10 교차 언어 전이__4.10.1 제로 샷 전이가 유용할 때__4.10.2 다국어에서 동시에 미세 튜닝하기_4.11 모델 위젯 사용하기_4.12 결론CHAPTER 5 텍스트 생성_5.1 일관성 있는 텍스트 생성의 어려움_5.2 그리디 서치 디코딩_5.3 빔 서치 디코딩_5.4 샘플링 방법_5.5 탑-k 및 뉴클리어스 샘플링_5.6 어떤 디코딩 방법이 최선일까요?_5.7 결론CHAPTER 6 요약_6.1 CNN/DailyMail 데이터셋_6.2 텍스트 요약 파이프라인__6.2.1 요약 기준 모델__6.2.2 GPT-2__6.2.3 T5__6.2.4 BART__6.2.5 PEGASUS_6.3 요약 결과 비교하기_6.4 생성된 텍스트 품질 평가하기__6.4.1 BLEU__6.4.2 ROUGE_6.5 CNN/DailyMail 데이터셋에서 PEGASUS 평가하기_6.6 요약 모델 훈련하기__6.6.1 SAMSum에서 PEGASUS 평가하기__6.6.2 PEGASUS 미세 튜닝하기__6.6.3 대화 요약 생성하기_6.7 결론CHAPTER 7 질문 답변_7.1 리뷰 기반 QA 시스템 구축하기__7.1.1 데이터셋__7.1.2 텍스트에서 답 추출하기__7.1.3 헤이스택을 사용해 QA 파이프라인 구축하기_7.2 QA 파이프라인 개선하기__7.2.1 리트리버 평가하기__7.2.2 리더 평가하기__7.2.3 도메인 적응__7.2.4 전체 QA 파이프라인 평가하기_7.3 추출적 QA를 넘어서_7.4 결론CHAPTER 8 효율적인 트랜스포머 구축_8.1 의도 탐지 예제_8.2 벤치마크 클래스 만들기_8.3 지식 정제로 모델 크기 줄이기__8.3.1 미세 튜닝에서의 지식 정제__8.3.2 사전 훈련에서의 지식 정제__8.3.3 지식 정제 트레이너 만들기__8.3.4 좋은 스튜던트 선택하기__8.3.5 옵투나로 좋은 하이퍼파라미터 찾기__8.3.6 정제 모델 벤치마크 수행하기_8.4 양자화로 모델 속도 높이기_8.5 양자화된 모델의 벤치마크 수행하기_8.6 ONNX와 ONNX 런타임으로 추론 최적화하기_8.7 가중치 가지치기로 희소한 모델 만들기__8.7.1 심층 신경망의 희소성__8.7.2 가중치 가지치기 방법_8.8 결론CHAPTER 9 레이블 부족 문제 다루기_9.1 깃허브 이슈 태거 만들기__9.1.1 데이터 다운로드하기__9.1.2 데이터 준비하기__9.1.3 훈련 세트 만들기__9.1.4 훈련 슬라이스 만들기_9.2 나이브 베이즈 모델 만들기_9.3 레이블링된 데이터가 없는 경우_9.4 레이블링된 데이터가 적은 경우__9.4.1 데이터 증식__9.4.2 임베딩을 룩업 테이블로 사용하기__9.4.3 기본 트랜스포머 미세 튜닝하기__9.4.4 프롬프트를 사용한 인-컨텍스트 학습과 퓨-샷 학습_9.5 레이블링되지 않은 데이터 활용하기__9.5.1 언어 모델 미세 튜닝하기__9.5.2 분류기 미세 튜닝하기__9.5.3 고급 방법_9.6 결론CHAPTER 10 대규모 데이터셋 수집하기_10.1 대규모 데이터셋 수집하기__10.1.1 대규모 말뭉치 구축의 어려움__10.1.2 사용자 정의 코드 데이터셋 만들기__10.1.3 대용량 데이터셋 다루기__10.1.4 허깅페이스 허브에 데이터셋 추가하기_10.2 토크나이저 구축하기__10.2.1 토크나이저 모델__10.2.2 토크나이저 성능 측정하기__10.2.3 파이썬 코드를 위한 토크나이저__10.2.4 토크나이저 훈련하기__10.2.5 허브에 사용자 정의 토크나이저 저장하기_10.3 밑바닥부터 모델을 훈련하기__10.3.1 사전 훈련 목표__10.3.2 모델 초기화__10.3.3 데이터로더 구축하기__10.3.4 훈련 루프 정의하기__10.3.5 훈련 실행_10.4 결과 및 분석_10.5 결론CHAPTER 11 향후 방향_11.1 트랜스포머 확장__11.1.1 규모의 법칙__11.1.2 규모 확장의 어려움__11.1.3 어텐션 플리즈!__11.1.4 희소 어텐션__11.1.5 선형 어텐션_11.2 텍스트를 넘어서__11.2.1 비전__11.2.2 테이블_11.3 멀티모달 트랜스포머__11.3.1 스피치-투-텍스트__11.3.2 비전과 텍스트_11.4 다음 목적지는?