장바구니 담기 close

장바구니에 상품을 담았습니다.

음성과 언어 처리

음성과 언어 처리

  • 댄 주라프스키
  • |
  • 에이콘출판
  • |
  • 2023-03-24 출간
  • |
  • 1308페이지
  • |
  • 188 X 235mm
  • |
  • ISBN 9791161757315
판매가

75,000원

즉시할인가

67,500

배송비

무료배송

(제주/도서산간 배송 추가비용:3,000원)

수량
+ -
총주문금액
67,500

※ 스프링제본 상품은 반품/교환/환불이 불가능하므로 신중하게 선택하여 주시기 바랍니다.

출판사서평

◈ 옮긴이의 말 ◈
우리의 생활에 가장 직접적으로 영향을 주는 영역 중 하나는 음성 및 언어 처리일 것이다. 최근 음성 및 언어 처리는 딥러닝 기술과 함께 빠른 발전을 이뤄냈고 AI 스피커, 챗봇, 번역기, 리뷰 평점 분석 등 실생활 속 누구나 한 번쯤 사용해본 적이 있을 법한 여러 분야에서 응용되고 있다. 말 한 마디로 가전제품을 제어하고, 상담원 대기 없이 챗봇으로 문의 사항을 해결할 수 있는 편리함을 제공한다. 개인적으로 번역기의 음성 및 언어 처리 발전에 큰 감사함을 느낀다. 몇 년 전에만 해도 해외 여행을 준비할 때의 나는 출국 전날까지 시험 공부를 하듯이 주요 문장들을 외웠고, 외국인과 대화할 때면 무척 긴장됐다. 하지만 최근 들어 번역기 덕분에 낯선 언어에 대한 긴장감이 사라졌다. 기술의 발전은 점차 언어의 장벽을 넘어 인간과 인간을 더 가깝고 친근하게 만들어주는 것 같다. 앞으로 음성 및 언어 처리 기술이 어떻게 발전해서 우리의 삶을 편리하게 해줄지 기대된다.
아울러 이 책을 통해 많은 독자가 음성 및 언어 처리에 대한 인사이트를 얻고 연구에 도움을 받을 수 있었으면 좋겠다. 이 책에서는 음성 및 언어 처리 관련 시스템 개발에 필요한 기본에서부터 최신 기술까지 엄청난 양의 주제를 다루고 있고, 각각의 주제를 깊이 파고든다. 내용을 따라가다 보면 음성 및 언어 처리의 핵심적인 알고리듬을 거의 다 경험해볼 수 있을 것이다. 초보자에게 알맞은 입문서일 뿐만 아니라 전문가에게도 차세대 자연어 처리 연구에 도움이 되리라 생각된다.

목차

1장. 소개
1.1 음성 및 언어 처리에 관한 지식
1.2 중의성
1.3 모델과 알고리듬
1.4 언어, 생각 및 이해
1.5 현재의 기술 수준
1.6 일부 간략한 역사
1.6.1 기초적 이해: 1940년대와 1950년대
1.6.2 두 캠프: 1957~1970년
1.6.3 네 가지 패러다임: 1970~1983년
1.6.4 경험론 및 유한 상태 모델 리덕스: 1983~1993년
1.6.5 필드 통합: 1994~1999년
1.6.6 머신러닝의 증가: 2000~2008년
1.6.7 복수 발견
1.6.8 심리학에 대한 간단한 요약
1.7 요약
참고문헌 및 역사 참고 사항

2장. 정규 표현식과 오토마타
2.1 정규 표현식
2.1.1 기본 정규 표현식 패턴
2.1.2 분리, 그룹화 및 우선순위
2.1.3 간단한 예
2.1.4 더 복잡한 예
2.1.5 고급 연산자
2.1.6 정규 표현식 치환, 메모리 및 엘리자
2.2 유한 상태 오토마타
2.2.1 양의 울음소리를 인식하기 위한 FSA의 사용
2.2.2 형식 언어
2.2.3 또 다른 예
2.2.4 비결정적 FSA
2.2.5 문자열 수용을 위한 NFSA 사용
2.2.6 검색으로 인식
2.2.7 결정적 및 비결정적 오토마타의 관계
2.3 정규 언어 및 FSA
2.4 요약
참고문헌 및 역사 참고 사항
연습

3장. 단어 및 변환기
3.1 (대부분의) 영어 형태론 조사
3.1.1 굴절 형태론
3.1.2 파생 형태론
3.1.3 접어화
3.1.4 비연결형 형태론
3.1.5 일치
3.2 유한 상태 형태론 파싱
3.3 유한 상태 어휘 목록의 구조
3.4 유한 상태 변환기
3.4.1 순차 변환기 및 결정론
3.5 형태론적 파싱에 대한 FST
3.6 변환기 및 철자 규칙
3.7 FST 어휘와 규칙의 조합
3.8 어휘 목록이 없는 FST: 포터 어간
3.9 단어 및 문장 토큰화
3.9.1 중국어 분할
3.10 철자 오류 감지 및 수정
3.11 최소 편집 거리
3.12 인간의 형태론적 처리
3.13 요약
참고문헌 및 역사 참고 사항
연습

4장. N그램
4.1 코퍼스에서의 단어 세기
4.2 단순(Unsmoothed) N그램
4.3 훈련 및 테스트 세트
4.3.1 훈련 코퍼스에 대한 N 그램 민감도
4.3.2 미등록어: 개방형 대 폐쇄형 어휘 과제
4.4 N 그램 평가: 복잡도
4.5 평탄화
4.5.1 라플라스 평탄화
4.5.2 굿 튜링 할인
4.5.3 굿 튜링 추정의 일부 고급 문제
4.6 보정법
4.7 백오프
4.7.1 고급: 캐츠 백오프 α 및 P ⁎ 계산 세부 사항
4.8 실제 문제: 툴킷 및 데이터 형식
4.9 언어 모델링의 고급 문제
4.9.1 고급 평탄화 방법: Kneser-Ney 평탄화
4.9.2 부류 기반 N그램
4.9.3 언어 모델 적응 및 웹 사용
4.9.4 장거리 정보 사용: 간단한 요약
4.10 고급: 정보 이론 배경
4.10.1 모델 비교를 위한 교차 엔트로피
4.11 고급: 영어의 엔트로피와 엔트로피 비율의 불변성
4.12 요약
참고문헌 및 역사 참고 사항
연습

5장. 품사 태깅
5.1 (대부분) 영어의 어휘 범주
5.2 영어 태그 세트
5.3 품사 태깅
5.4 규칙 기반 품사 태깅
5.5 HMM 품사 태깅
5.5.1 가장 가능성이 높은 태그 시퀀스 계산: 예
5.5.2 은닉 마르코프 모델 태거 공식화
5.5.3 HMM 태깅을 위한 비터비 알고리듬 사용
5.5.4 HMM 알고리듬을 트라이그램으로 확장
5.6 변환 기반 태깅
5.6.1 TBL 규칙 적용 방법
5.6.2 TBL 규칙 학습 방법
5.7 평가 및 오류 분석
5.7.1 오류 분석
5.8 품사 태깅의 고급 문제
5.8.1 실제 문제: 태그 불확실성 및 토큰화
5.8.2 미지의 단어
5.8.3 다른 언어의 품사 태깅
5.8.4 태거 조합
5.9 고급: 철자를 위한 잡음 통신로 모델
5.9.1 맥락별 철자 오류 수정
5.10 요약
참고문헌 및 역사 참고 사항
연습

6장. 은닉 마르코프 및 최대 엔트로피 모델
6.1 마르코프 연쇄
6.2 은닉 마르코프 모델
6.3 우도 계산: 순방향 알고리듬
6.4 디코딩: 비터비 알고리듬
6.5 HMM 훈련: 순방향 - 역방향 알고리듬
6.6 최대 엔트로피 모델: 배경
6.6.1 선형 회귀 분석
6.6.2 로지스틱 회귀
6.6.3 로지스틱 회귀: 분류
6.6.4 고급: 로지스틱 회귀 학습
6.7 최대 엔트로피 모델링
6.7.1 최대 엔트로피라고 부르는 이유
6.8 최대 엔트로피 마르코프 모델
6.8.1 MEMM에서 디코딩 및 학습
6.9 요약
참고문헌 및 역사 참고 사항
연습

7장. 음성학
7.1 말소리 및 발음 표기
7.2 조음 음성학
7.2.1 발성 기관
7.2.2 자음: 조음 위치
7.2.3 자음: 조음 방식
7.2.4 모음
7.2.5 음절
7.3 음운론적 범주 및 발음 변이
7.3.1 발음 피처
7.3.2 발음 변이 예측
7.3.3 발음 변이에 영향을 미치는 요인
7.4 음향 음성학 및 신호
7.4.1 파형
7.4.2 음성 음파
7.4.3 주파수와 진폭: 피치와 음량
7.4.4 파형에서 단음의 해석
7.4.5 스펙트럼 및 주파수 영역
7.4.6 소스 - 필터 모델
7.5 음성 리소스
7.6 고급: 조음 및 동작 음운론
7.7 요약
참고문헌 및 역사 참고 사항
연습

8장. 음성 합성
8.1 텍스트 정규화
8.1.1 문장 토큰화
8.1.2 비표준 단어
8.1.3 동형이의어의 중의성 해소
8.2 음성 분석
8.2.1 사전 조회
8.2.2 명칭
8.2.3 문자소의 음소 변환
8.3 운율 분석
8.3.1 운율 구조
8.3.2 운율 돋들림
8.3.3 억양
8.3.4 보다 정교한 모델: ToBI
8.3.5 운율 레이블에서 음의 길이 연산
8.3.6 운율 레이블에서 F0 연산
8.3.7 텍스트 분석의 최종 결과: 내부 표현
8.4 다이폰 파형 합성
8.4.1 다이폰 데이터베이스 구축 단계
8.4.2 다이폰 연결 및 운율학의 TD - PSOLA
8.5 음편 선택 (파형) 합성
8.6 평가
참고문헌 및 역사 참고 사항
연습

9장. 자동 음성 인식
9.1 음성 인식 아키텍처
9.2 음성에 적용된 은닉 마르코프 모델
9.3 피처 추출: MFCC 벡터
9.3.1 프리엠파시스
9.3.2 윈도잉
9.3.3 이산 푸리에 변환
9.3.4 멜 필터 뱅크 및 로그
9.3.5 켑스트럼: 역이산 푸리에 변환
9.3.6 델타와 에너지
9.3.7 요약: MFCC
9.4 음향 우도 계산
9.4.1 벡터 양자화
9.4.2 가우시안 PDF
9.4.3 확률, 로그 확률 및 거리함수
9.5 어휘 목록과 언어 모델
9.6 검색 및 디코딩
9.7 임베디드 훈련
9.8 평가: 단어 오류율
9.9 요약
참고문헌 및 역사 참고 사항
연습

10장. 음성 인식: 고급 주제
10.1 다중 경로 디코딩: N - 베스트 목록 및 격자
10.2 A*(“스택”) 디코딩
10.3 문맥에 따른 음향 모델: 트라이폰
10.4 차별적 훈련
10.4.1 최대 상호 정보 추정
10.4.2 사후 분류기에 기반한 음향 모델
10.5 모델링 변화
10.5.1 환경 변화 및 잡음
10.5.2 화자별 변이 및 화자 적응
10.5.3 발음 모델링: 장르에 따른 변이
10.6 메타데이터: 경계, 구두점 및 눌변
10.7 인간의 음성 인식
10.8 요약
참고문헌 및 역사 참고 사항
연습

11장. 컴퓨터의 음운론
11.1 유한 상태 음운론
11.2 고급 유한 상태 음운론
11.2.1 조화
11.2.2 템플래틱 형태론
11.3 컴퓨터의 최적 이론
11.3.1 최적 이론의 유한 상태 변환기 모델
11.3.2 최적 이론의 확률적 모델
11.4 음절화
11.5 음운론 및 형태론 학습
11.5.1 음운론적 규칙 학습
11.5.2 형태론적 규칙 학습
11.5.3 최적 이론 학습
11.6 요약
참고문헌 및 역사 참고 사항
연습

12장. 영어의 격식어법
12.1 구성 요소
12.2 문맥 자유 문법
12.2.1 문맥 자유 문법의 형식적 정의
12.3 영어 문법 규칙
12.3.1 문장 레벨의 구성 요소
12.3.2 절과 문장
12.3.3 명사구
12.3.4 일치
12.3.5 동사구와 하위 범주화
12.3.6 조동사
12.3.7 대등 관계
12.4 트리뱅크
12.4.1 예제: 펜 트리뱅크 프로젝트
12.4.2 문법으로서의 트리뱅크
12.4.3 트리뱅크 검색
12.4.4 구의 중심 단어 탐색
12.5 문법 동등성 및 정규형
12.6 유한 상태 및 문맥 자유 문법
12.7 의존성 문법
12.7.1 의존성과 구의 중심 단어 간의 관계
12.7.2 범주 문법
12.8 음성 언어 통사론
12.8.1 눌변 및 정정
12.8.2 구어체를 위한 트리뱅크
12.9 문법과 언어의 프로세싱
12.10 요약
참고문헌 및 역사 참고 사항
연습

13장. 통사론 파싱
13.1 검색으로 파싱
13.1.1 하향식 파싱
13.1.2 상향식 파싱
13.1.3 하향식 및 상향식 파싱 비교
13.2 중의성
13.3 중의성 측면에서 검색
13.4 동적 프로그래밍 파싱 방법
13.4.1 CKY 파싱
13.4.2 Earley 알고리듬
13.4.3 차트 파싱
13.5 부분적인 파싱
13.5.1 유한 상태 규칙 기반 청킹
13.5.2 청킹에 대한 머신러닝 기반 접근법
13.5.3 청킹 시스템 평가
13.6 요약
참고문헌 및 역사 참고 사항
연습

14장. 통계에 근거한 파싱
14.1 확률론적 문맥 자유 문법
14.1.1 중의성 해소를 위한 PCFG
14.1.2 언어 모델링을 위한 PCFG
14.2 PCFG의 확률론적 CKY 파싱
14.3 PCFG 규칙 확률 학습 방법
14.4 PCFG의 문제
14.4.1 규칙 간의 구조적 종속성을 결여한 독립 가정
14.4.2 어휘 종속성의 민감성 결여
14.5 논터미널을 분할한 PCFG 개선
14.6 확률론적 어휘 CFG
14.6.1 콜린스 파서
14.6.2 고급: 콜린스 파서의 추가 세부 정보
14.7 파서 평가
14.8 고급: 차별적 재순위화
14.9 고급: 파서 기반 언어 모델링
14.10 휴먼 파싱
14.11 요약
참고문헌 및 역사 참고 사항
연습

15장. 피처와 결합
15.1 피처 구조
15.2 피처 구조의 통일
15.3 문법의 피처 구조
15.3.1 일치
15.3.2 헤드 피처
15.3.3 하위 범주화
15.3.4 장거리 종속성
15.4 통일 실행
15.4.1 통일 데이터 구조
15.4.2 통일 알고리듬
15.5 통일 제약 조건을 사용한 구문 분석
15.5.1 Earley 파서로의 통일
15.5.2 통일 기반 파싱
15.6 유형과 상속
15.6.1 고급: 입력할 확장자
15.6.2 통일에 대한 기타 확장
15.7 요약
참고문헌 및 역사 참고 사항
연습

16장. 언어와 복잡성
16.1 촘스키 계층 구조
16.2 언어가 규칙적이지 않은지 확인하는 방법
16.2.1 펌핑 렘마
16.2.2 다양한 자연어가 규칙적이지 않다는 증거
16.3 문맥 자유 자연어란
16.4 복잡성과 인간의 프로세싱
16.5 요약
참고문헌 및 역사 참고 사항
연습

17장. 의미표현상
17.1 표현에 대한 컴퓨터 요구 사항
17.1.1 검증 가능성
17.1.2 중의적이지 않은 표현
17.1.3 기본형
17.1.4 추론 및 변수
17.1.5 표현성
17.2 모델 이론적 의미론
17.3 1차 논리
17.3.1 1차 논리의 기본 요소
17.3.2 변수와 양화사
17.3.3 람다 표기법
17.3.4 1차 논리의 의미
17.3.5 추론
17.4 이벤트 및 상태 표현
17.4.1 시간 표시
17.4.2 동사의 상
17.5 기술 논리
17.6 의미에 대한 구체화 및 위치 접근
17.7 요약
참고문헌 및 역사 참고 사항
연습

18장. 컴퓨터의 의미론
18.1 구문 기반 의미 분석
18.2 구문 규칙의 의미적 확장
18.3 양화사 범위 중의성 및 비명세성
18.3.1 접근 방식 저장 및 검색
18.3.2 제약 기반 접근 방식
18.4 의미론적 분석의 통합 기반 접근
18.5 Earley 파서에 의미론 통합
18.6 관용어와 구성
18.7 요약
참고문헌 및 역사 참고 사항
연습

19장. 어휘 의미론
19.1 단어 의미
19.2 의미 간의 관계
19.2.1 동의어와 반의어
19.2.2 하위어
19.2.3 의미장
19.3 WordNet : 어휘 관계 데이터베이스
19.4 이벤트 관여자
19.4.1 의미역
19.4.2 특성 대체
19.4.3 의미역의 문제
19.4.4 명제 뱅크
19.4.5 FrameNet
19.4.6 선택 제한
19.5 기본 분해
19.6 고급: 은유
19.7 요약
참고문헌 및 역사 참고 사항
연습

20장. 컴퓨터의 어휘 의미론
20.1 단어 의미 중의성 해소: 개요
20.2 지도된 단어 감지 중의성 해소
20.2.1 지도 학습을 위한 피처 추출
20.2.2 나이브 베이즈 및 의사결정 목록 분류사
20.3 WSD 평가, 기준치 및 한도
20.4 WSD: 사전 및 시소러스 방법
20.4.1 Lesk 알고리듬
20.4.2 선택 제한 및 선택 선호도
20.5 최소 지도 WSD: 부트스트래핑
20.6 단어 유사성: 시소러스 방법
20.7 단어 유사성: 분산 방법
20.7.1 단어의 동시 발생 벡터 정의
20.7.2 맥락과의 연관성 측정
20.7.3 두 벡터 간의 유사성 정의
20.7.4 분산 단어 유사성 평가
20.8 하의어 및 기타 단어 관계
20.9 의미론적 역할 레이블링
20.10 고급: 비지도 의미 중의성 해소
20.11 요약
참고문헌 및 역사 참고 사항
연습

21장. 컴퓨터를 사용한 담화
21.1 담화 세분화
21.1.1 비지도 담화 세분화
21.1.2 지도된 담화 세분화
21.1.3 담화 세분화 평가
21.2 텍스트 일관성
21.2.1 수사적 구조 이론
21.2.2 자동 일관성 할당
21.3 참조 해결
21.4 지시 현상
21.4.1 다섯 가지 유형의 지칭 표현
21.4.2 정보 상태
21.5 대명사의 대용어 복원 피처
21.5.1 잠재적 대상 필터링 피처
21.5.2 대명사 해석의 선택
21.6 대용어 복원을 위한 세 가지 알고리듬
21.6.1 대명사의 대용어 기준선: 홉스 알고리듬
21.6.2 대용어 복원을 위한 센터링 알고리듬
21.6.3 대명사 대용어 복원을 위한 로그 - 선형 모델
21.6.4 대명사의 대용어 복원을 위한 피처
21.7 대용어 해소
21.8 대용어 해소 평가
21.9 고급: 추론 기반 일관성 해결
21.10 지칭에 대한 심리학적 연구
21.11 요약
참고문헌 및 역사 참고 사항
연습

22장. 정보 추출
22.1 개체명 인식
22.1.1 개체명 인식의 중의성
22.1.2 시퀀스 레이블링으로서의 NER
22.1.3 기업명 인식 평가
22.1.4 실용적인 NER 아키텍처
22.2 관계 검출 및 분류
22.2.1 관계 분석에 대한 지도 학습 접근법
22.2.2 관계 분석의 용이한 지도된 접근 방식
22.2.3 관계 분석 시스템의 평가
22.3 시간 및 이벤트 처리
22.3.1 시간 표현 인식
22.3.2 시간적 정규화
22.3.3 이벤트 감지 및 분석
22.3.4 TimeBank
22.4 템플릿 채우기
22.4.1 템플릿 채우기에 대한 통계적 접근
22.4.2 유한 상태 템플릿 채우기 시스템
22.5 고급: 생의학 정보 추출
22.5.1 생물학적 개체명 인식
22.5.2 유전자 정규화
22.5.3 생물학적 역할 및 관계
22.6 요약
참고문헌 및 역사 참고 사항
연습

23장. 질의응답 및 요약
23.1 정보 검색
23.1.1 벡터 공간 모델
23.1.2 용어 가중치
23.1.3 용어 선택 및 생성
23.1.4 정보 검색 시스템 평가
23.1.5 동음이의, 다의성 및 동의성
23.1.6 사용자 쿼리를 개선하는 방법
23.2 팩토이드 질의응답
23.2.1 질문 처리
23.2.2 단락 검색
23.2.3 답변 처리
23.2.4 팩토이드 답변 평가
23.3 요약
23.4 단일 문서 요약
23.4.1 비지도 콘텐츠 선택
23.4.2 수사학적 파싱을 기반으로 한 비지도 요약
23.4.3 지도 콘텐츠 선택
23.4.4 문장 단순화
23.5 다중 문서 요약
23.5.1 다중 문서 요약의 콘텐츠 선택
23.5.2 다중 문서 요약의 정보 순서
23.6 집중 요약 및 질의응답
23.7 요약 평가
23.8 요약
참고문헌 및 역사 참고 사항
연습

24장. 다이얼로그 및 대화 에이전트
24.1 인간 대화의 속성
24.1.1 의사소통 순서와 주고받기
24.1.2 실행 언어: 화행
24.1.3 공동 작용으로서의 언어: 기초
24.1.4 대화 구조
24.1.5 대화 의미
24.2 기본 다이얼로그 시스템
24.2.1 ASR 구성 요소
24.2.2 NLU 구성 요소
24.2.3 생성 및 TTS 구성 요소
24.2.4 다이얼로그 관리자
24.2.5 오류 처리: 확인 및 거부
24.3 VoiceXML
24.4 다이얼로그 시스템 설계 및 평가
24.4.1 다이얼로그 시스템 설계
24.4.2 다이얼로그 시스템 평가
24.5 정보 상태와 대화 행위
24.5.1 대화 행위 사용
24.5.2 대화 행위 해석
24.5.3 교정 행위 감지
24.5.4 대화 행위 생성: 확인 및 거부
24.6 마르코프 의사결정 프로세스 아키텍처
24.7 고급: 계획 기반 다이얼로그 에이전트
24.7.1 계획 추론 해석 및 생성
24.7.2 의도적인 다이얼로그 구조
24.8 요약
참고문헌 및 역사 참고 사항
연습


25장. 기계 번역
25.1 기계 번역이 어려운 이유
25.1.1 유형 분류 체계
25.1.2 기타 구조 차이
25.1.3 어휘의 차이
25.2 클래식 MT와 보쿠아 삼각형
25.2.1 직역
25.2.2 전달
25.2.3 클래식 MT에서 결합된 직접 및 전달 접근 방식
25.2.4 인터링구아 아이디어: 의미 사용
25.3 통계적 MT
25.4 P (F |E ): 구문 기반 번역 모델
25.5 MT에서의 정렬
25.5.1 IBM Model 1
25.5.2 HMM 정렬
25.6 훈련 정렬 모델
25.6.1 훈련 정렬 모델을 위한 EM
25.7 구문 기반 MT를 위한 대칭 정렬
25.8 구문 기반 통계 MT에 대한 디코딩
25.9 MT 평가
25.9.1 인간 평가자 사용
25.9.2 자동 평가: BLEU
25.10 고급: MT용 구문 모델
25.11 고급 : IBM Model 3 및 퍼틸리티
25.11.1 Model 3 훈련
25.12 고급: MT용 로그 선형 모델
25.13 요약
참고문헌 및 역사 참고 사항
연습

교환 및 환불안내

도서교환 및 환불
  • ㆍ배송기간은 평일 기준 1~3일 정도 소요됩니다.(스프링 분철은 1일 정도 시간이 더 소요됩니다.)
  • ㆍ상품불량 및 오배송등의 이유로 반품하실 경우, 반품배송비는 무료입니다.
  • ㆍ고객님의 변심에 의한 반품,환불,교환시 택배비는 본인 부담입니다.
  • ㆍ상담원과의 상담없이 교환 및 반품으로 반송된 물품은 책임지지 않습니다.
  • ㆍ이미 발송된 상품의 취소 및 반품, 교환요청시 배송비가 발생할 수 있습니다.
  • ㆍ반품신청시 반송된 상품의 수령후 환불처리됩니다.(카드사 사정에 따라 카드취소는 시일이 3~5일이 소요될 수 있습니다.)
  • ㆍ주문하신 상품의 반품,교환은 상품수령일로 부터 7일이내에 신청하실 수 있습니다.
  • ㆍ상품이 훼손된 경우 반품 및 교환,환불이 불가능합니다.
  • ㆍ반품/교환시 고객님 귀책사유로 인해 수거가 지연될 경우에는 반품이 제한될 수 있습니다.
  • ㆍ스프링제본 상품은 교환 및 환불이 불가능 합니다.
  • ㆍ군부대(사서함) 및 해외배송은 불가능합니다.
  • ㆍ오후 3시 이후 상담원과 통화되지 않은 취소건에 대해서는 고객 반품비용이 발생할 수 있습니다.
반품안내
  • 마이페이지 > 나의상담 > 1 : 1 문의하기 게시판 또는 고객센터 1800-7327
교환/반품주소
  • 경기도 파주시 문발로 211 1층 / (주)북채널 / 전화 : 1800-7327
  • 택배안내 : CJ대한통운(1588-1255)
  • 고객님 변심으로 인한 교환 또는 반품시 왕복 배송비 5,000원을 부담하셔야 하며, 제품 불량 또는 오 배송시에는 전액을 당사에서부담 합니다.