iOS용 앱을 만드려는 사람들은 Objective-C나 Swift를 배워야 한다. Swift는 신생언어이니 좀 예외적이긴 하지만, iOS 용 앱을 만들고자 하는 사람들의 수요가 늘어나면서 국내에도 코코아터치에 관한 책들은 정말 많이 발간되었다. 다만 이런 책들은 대부분 iOS앱에 초점을 맞추다보니 사실 국내에는 제대로 된 Objective-C 용 교재나 macOS용 앱을 위한 코코아 관련 책이 거의 전무한 실정이다. 애론 힐리가스 아저씨가 쓴 코코아 프로그래밍 책이 그나마 괜찮은 편이지만, 워낙 오래된 책이라1 마운틴 라이언이 출시되면서 앱킷의 API 가 대거 변경되었는데, 이러한 내용이 반영되지 못하고 있다.
이런 좋은 책들을 대체하려는 글을 쓰려는 것은 아니고, 아주 간단한 코코아 앱을 만드는 과정을 따라가면서 macOS용 앱을 만드는 것은 iOS용 앱을 만드는 것과 어떻게 다른지를 살펴보고, 코코아 앱의 핵심 개념이나 MVC, 델리게이트와 같은 디자인 패턴들이 어떻게 적용되는지를 살펴보겠다. 이 강좌는 우선 Objective-C를 기준으로 설명되며(맥북이 너무 오래돼서 성능이 매우 좋지 않아서….) 스토리보드, Swift 를 사용하는 버전에 대해서는 다음에 내가 하고 싶을 때 추가로 작성해 볼 생각이다.
만들어보고자 하는 앱은 아주 간단한 TTS 앱으로, 사용자가 입력한 텍스트를 소리 내어 읽어주는 앱이다. 뭔가 대단하고 화려한 기술을 펼칠 것은 아니고, 사실 코코아에서 음성합성기를 기본적으로 제공하기 때문에, 이걸 살짝 포장하는 수준의 간단한 앱이다. 우리는 이 음성합성기를 우선 가장 기본적인 구성 요소로 앱을 만들어 보고, UI를 조금 더 충실하게 다듬은 다음, 사용자가 목소리를 변경할 수 있게 하는 기능을 추가해볼 예정이다. 그리고 그 이후에는 그 때까지 만들었던 내용을 다 뒤집어 엎어서 아예 새로운 방식으로 접근하는 방법도 알아볼 것이다.
여기서 사용된 Xcode 버전은 9.0이다.
프로젝트 만들기
Xcode를 실행하고 새로운 Cocoa App 프로젝트를 생성한다. 프로젝트의 이름은 SpeechSynth-v1 으로 한다. 언어는 Objective-C 를 선택하고 스토리보드나 코어데이터를 사용하지 않을 것이며 그 외에 어떤 것도 추가할 필요가 없다. 따라서 아래와 같이 모든 선택 사항에 대해 체크를 해제한 채로 프로젝트를 생성하자.
기본 UI 구성 및 앱 컨트롤러 추가하기
프로젝트를 생성하면, 프로젝트 내에는 기본적으로 필요한 몇 개의 파일이 미리 생성되어 있다. 대표적으로 AppDelegate와 (Objective-C 에서 클래스 1개는 보통 헤더파일(.h)과 구현부파일(.m)이 한 쌍을 이룬다.) MainMenu.xib 라는 인터페이스 빌더용 데이터 파일이 생성되어 있다.
앱 델리게이트는 앱의 구동과 종료시에 시스템이 애플리케이션에게 결정을 요구하거나, 혹은 특정 라이프 사이클 이벤트에 대해 이벤트 핸들러 메소드를 호출하는데, 이러한 처리를 대행해주는 클래스이다. 인터넷에서 찾아 볼 수 있는 많은 튜토리얼들은 (아마도 귀찮아서 그런지) 별도의 앱 컨트롤러를 만들지 않고 델리게이트가 앱 컨트롤러 역할을 담당하는 경우가 많은데, 별로 권장하지 않는다. 우리는 여기서는 일단 앱 델리게이트는 건드리지 않을 것이다. (그렇다고 필요없는 클래스는 아니니 절대 삭제해서는 안된다.)
프로젝트가 시작되면 Xcode 맨 왼쪽에 프로젝트 네비게이터에서 MainMenu.xib를 선택한다. 그러면 Xcode의 화면이 인터페이스 빌더로 전환된다.
인터페이스 빌더의 화면 구성은 위와 같다. 맨 왼쪽에는 네비게이터 패널이 있다. 그 왼쪽에는 nib 파일에 추가되어 있는 클래스들이 표시되는 독(Dock)이 있다. 화면 가운데는 UI 요소들을 편집하는 영역이다. 화면의 오른쪽에는 인스펙터와 오브젝트 팔레트가 있다. 인스펙터는 선택된 객체의 여러 속성값들을 조절하는 곳이고, 오브젝트 팔레트는 미리 정의되어 있는 Cocoa UI 클래스들을 검색하고 드래그 앤 드롭으로 인터페이스 빌더에 추가할 수 있는 곳이다.
버튼 추가하기
기본적으로 인터페이스 빌더에는 메인 메뉴가 덜렁, 표시되는데 독을 잘 보면 아래에 window가 있다. 이것을 선택하면 메인 윈도우가 짠 하고 화면에 나타난다.
오른쪽 팔레트에서 Push Button을 드래그해서 윈도우 안으로 끌고 가자. 이렇게 드래그하면 반투명 파란색으로 특정 객체가 표시되는데, 지금은 윈도의 메인 뷰에 버튼이 추가된다는 것을 알려주는 것이다. 이 상태에서 버튼을 드롭하면 윈도 안에 버튼이 추가된다.
추가된 버튼을 더블 클릭하면 레이블 이름을 변경할 수 있다. 두 개의 버튼을 추가하고 (혹은 한 개를 추가한 다음, opt + 드래그로 복제해도 된다.) 각각의 이름을 Start, Stop으로 변경해준다.
텍스트 필드 추가하기
앱이 읽어줄 텍스트를 직접 입력할 텍스트 필드도 추가해보자. 객체 팔레트의 아래쪽에는 검색창이 달려있다. 여기에 text라고 입력하면 자동으로 팔레트의 내용이 필터링된다.
그 중에서 Text Field를 선택하고 윈도에 드래그해서 추가한다. 그리고 각각의 크기와 위치를 적절하게 조정해서 아래와 같이 정돈해보자.
앱 컨트롤러 추가
UI 상에서 버튼을 클릭하는 등의 액션을 처리하고, UI 요소의 상태를 제어할 컨트롤러는 별도의 클래스로 추가할 것이다. cmd + N 을 눌러서 새로운 파일을 추가한다. 파일의 종류는 Cocoa Class를 선택한다.
아래와 같이 클래스의 이름은 AppController
로 하고 NSObject
의 서브 클래스가 되도록 한다. 선택을 마친 후 저장 위치는 기본 위치 (프로젝트 폴더 내)에서 생성하도록 하자. 참고로 클래스를 이렇게 추가하면, 프로젝트 네비게이터에서는 폴더 위치와 상관없이 파일이 나타난다. (네비게이터 상의 계층 구조는 실제 디렉토리/파일구조와 다른, 프로젝트 상의 파일들의 구성이다.)
헤더 편집
새로운 클래스 파일을 생성하고나면, AppController.m 파일이 편집기에서 자동으로 열린다. 먼저 헤더쪽에서 수정해야 하는 부분이 있으니, 네비게이터에서 AppController.h 파일을 선택해서 헤더 파일을 먼저 편집하자. 헤더 파일은 아래와 같이 3줄의 코드가 들어있다.
#import <Foundation/Foundation.h>
@interface AppController: NSObject
@end
여기서 <Foundation/Foundation.h>
부분을 <Cocoa/Cocoa.h>
로 변경한다. 우리가 곧 사용하게 될 음성 합성기 클래스는 파운데이션이 아닌 코코아 클래스이기 때문에, 프레임워크 헤더를 변경해주어야 한다. 파일을 저장하고 (나중에 빌드할 때 자동으로 저장해주므로 굳이 저장할 필요는 없긴 하다만, 분야를 막론하고 중간 저장은 꼭 습관화해야 한다.) 헤더파일은 여기까지 하면 됐고, 다시 AppController.m 파일로 돌아가자. 이 파일에는 다시 아래와 같은 3줄의 코드가 있다.
#import "AppController.h"
// <- 요 위치에 편집 시작
@implementation AppController
@end
내부인터페이스 – 프로퍼티 작성
구현의 가장 첫 단계는 앱 컨트롤러가 해야 하는 일을 정의하는 것이다. 컨트롤러는 기본적으로 다음의 일을 처리해야 한다.
- Start 버튼이 클릭되면 입력된 문자열을 음성합성기에 넘겨서 읽도록 한다.
- Stop 버튼이 클릭되면 읽던 동작을 멈추도록 한다.
따라서 앱 컨트롤러는 음성합성기를 하나 생성해서 가지고 있어야 한다. 그리고 사용자가 입력한 텍스트를 얻기 위해서 UI상에 추가한 텍스트 필드에 대한 참조점을 가지고 있어야 한다. 이 둘은 모두 선언 프로퍼티로 작성될 텐데, 프로퍼티 선언은 @interface 영역에서 한다. 그런데 이 부분은 아까 헤더 파일에 들어있던 것 아닌가? 새로운 프로퍼티를 만들어야 하거나 편집해야 할 때마다 헤더와 m파일을 오가는 것이 귀찮기도 하고해서 하나의 파일 내에서 내부 인터페이스를 정의하기로 한다. (기술적으로 이것은 익명 카테고리를 사용하는 것이다.) 이 부분을 정의하기 위해서 @implentaion
위쪽에 다음의 코드를 추가하자.
@interface AppController ()
@end
다시 이 @interface
~ @end
사이에 아래 두 프로퍼티 선언과 액션메서드 선언을 추가한다.
@property (weak, nonatomic) IBOutlet NSTextField* field;
@property (strong, readonly, nonatomic) NSSpeechSynthesizer* speech;
- (IBAction)startSpeaking:(id)sender;
- (IBAction)stopSpeaking:(id)sender;
이 두 프로퍼티는 각각 다음과 같이 설명된다.
field
는 인터페이스 빌더 상에서 추가한 텍스트 필드를 참조할 이름이다.speech
는field
에 입력된 텍스트를 읽어주는 일을 담당할 객체이다.
보통 특정 클래스의 프로퍼티를 초기화할 때에는 -init
메소드에서 초기화하는데, 그러기보다는 getter 메소드가 맨 처음 호출될 때 초기화하는 전략을 쓰도록 하겠다. 다음의 코드를 @implementation
~ @end
사이의 영역에 추가한다.
#pragma mark - Properties
- (NSSpeechSynthesizer *)speech {
if(!_speech) {
_speech = [[NSSpeechSynthesizer alloc] init];
}
return _speech;
}
그런데 _speech
는 어디서 튀어나온 것일까? 프로퍼티는 일반적으로 getter/setter 두 개의 접근자 메소드와 객체나 값을 저장할 스토리지 변수로 구성되는데, LLVM 컴파일러는 프로퍼티에 대해서 자동으로 그 이름 앞에 언더스코어를 붙인 변수를 자동으로 생성하고 nil
로 초기화해준다.2 따라서 해당 인스턴스 변수가 nil
이면 초기화 작업을 진행하고 그 변수의 값을 리턴하도록 하는 것이다. 이러한 방식으로 프로퍼티를 작성하면 해당 프로퍼티는 느긋한(Lazy) 프로퍼티가 되는데, 예를 들어 자주 쓰이지 않거나 초기화하는데 많은 자원이 들어가는 프로퍼티라면 가능한 해당 프로퍼티가 필요한 시점에 초기화되도록하여 앱의 초기 구동 시간을 단축하는데 도움이 될 수 있다.
그리고, field는 별도로 초기화하지 않는다. 이 프로퍼티의 초기화는 코드가 아닌 인터페이스 빌더를 통해서 하게되니 조금 기다리자.
액션 메소드 구현하기
다음은 액션 메소드를 작성할 차례이다. 다음 두 개의 메소드를 역시 @implementation
~ @end
사이에 추가한다.
#pragma mark - Actions
- (IBAction)startSpeaking: (id)sender
{
NSString *words = [self.field stringValue];
if([words length] > 0) {
[self.speech startSpeaking:words];
}
}
- (IBAction)stopSpeaking: (id)sender
{
[self.speech stopSpeaking];
}
-startSpeaking:
메소드는 나중에 Start 버튼이 클릭되면 호출될 메소드이다. 텍스트 필드에 입력된 문자열을 가져와서 그 길이가 0보다 크면 해당 텍스트를 음성합성기로 전달해서 읽도록 한다. -stopSpeaking:
은 Stop 버튼이 클릭되면 호출되며, 읽기를 중단하는 기능을 수행한다.
IBAction
이라는 키워드는 void
와 같은 뜻이다. 다만, 이 키워드를 사용한 메소드는 Xcode에 의해서 인터페이스 빌더와 연결가능한 액션 메소드라는 의미가 된다.
컨트롤러와 UI 요소 연결하기
이상으로 작성해야할 코드는 다 작성했다. 하지만 아직 끝난 것은 아니다. 가장 중요한 과정이 남아있다. 바로 컨트롤러의 IBOutlet
, IBAction
을 실제로 인터페이스 빌더에서 연결해주는 작업을 해야한다. 초보자들이 가장 많이 하는 실수가 이 부분이다. 앱을 빌드하고 실행했을 때 버튼 클릭에 반응이 없거나, UI 요소가 제대로 값을 표현하지 못한다면 가장 먼저 이 부분이 제대로 수행되었는지를 반드시 확인하자.
다시 MainMenu.xib 파일을 선택해서 인터페이스 빌더를 연다. 오른쪽 팔레트에서 Object를 입력해서 Object 객체를 찾는다. 이 객체는 메인 윈도가 아닌 왼쪽의 독으로 가져가야 한다.
추가한 Object를 선택하고 다시 오른쪽 위의 인스펙터를 보자. 세번째 탭이 Identity Inspector인데, 여기서 클래스의 종류를 정의해줄 수 있다. AppController라고 클래스의 이름을 입력해준다. 이렇게 되면 방금 독에 추가한 객체의 클래스 종류가 확인되면서, 인터페이스 빌더는 해당 클래스 객체의 IBAction 메소드나 IBOutlet 프로퍼티를 인식하여 연결할 수 있는 부분들을 자동으로 감지할 수 있게 된다.
우리가 작성했던 코드를 잠깐 생각해보자. 코드 내에서 앱 컨트롤러의 두 프로퍼티 중에서 speech
는 직접 최초 액세스시에 생성되도록 초기화 코드를 작성했다. 그런데 speech에 대해서는 별도의 초기화 메소드를 작성하지 않았다. 그런데 잘 생각해보면 프로젝트 어디에도 AppController 클래스의 인스턴스를 생성하는 코드가 들어있지 않다. 그렇다면 이 앱 컨트롤러는 어디서 생성되어 초기화되는 것일까?
정답은 nib 파일이다. 프로젝트를 컴파일하고 만들어진 앱을 실행하면, 앱은 런칭 시점에 자동으로 초기 nib 파일을 로딩하고, 그 내부에 정의된 객체들을 읽어들여서 인스턴스를 만들고 연결 등의 초기 세팅을 설정한다. 방금과 같이 AppController도 이제 nib 파일에 들어가 있게 되니 앱이 로딩될 때 자동으로 nib 파일로부터 로딩되어 인스턴스가 생성될 것이다.
아웃렛과 액션 연결
왼쪽의 Dock에서 AppController를 마우스 우클릭으로 드래그 (control 키를 누른 채로 왼쪽 드래그를 해도 같은 동작이다.)하면 파란색 선이 끌려온다. 이 선을 텍스트 필드로 가져가면 아래와 같은 상태가 된다.
이 때 마우스를 놓으면 까만색 작은 팝업이 뜨고, 여기서 field
를 선택하고 클릭한다. 그러면 앱 컨트롤러의 field
프로퍼티가 인터페이스 빌더 내의 텍스트 필드와 연결된 것이다. 이는 인터페이스 빌더 내에서 앱 컨트롤러의 field 라는 프로퍼티에 대해서 실제로 화면에 그려놓은 텍스트 필드 객체로 초기화하는 것과 동일한 의미가 된다.
액션 메소드 연결은 반대 방향이어야 한다. 같은 방식으로 Start버튼에서 control + 드래그해서 AppController로 마우스를 가져가보자.
이번에는 팝업에 두 개의 메소드가 표시될 것이다. 그 중에서 -startSpeaking:
을 선택한다. 같은 방법으로 Stop 버튼을 AppController의 -stopSpeaking:
과 연결해주자.
이제 이 번 시간에 해볼 모든 과정이 끝났다. 연결까지 제대로 성공했다면 상단에 있는 플레이(?) 버튼을 클릭해서 앱을 빌드하고 실행해보자.
정리
가장 기본적인 코코아 앱을 구성하는 방법을 살펴보았다. 컨트롤러가 UI요소로부터 어떤 값을 액세스하거나 상태를 변경해주기 위해서는 프로퍼티 아웃렛을 작성해야 하고, 또 UI 요소에서 발생한 이벤트를 처리하기 위해서는 액션 메소드를 작성해야 한다. 그리고 이렇게 작성된 아웃렛과 액션은 인터페이스 빌더상에서 해당 UI 요소와 연결되어야 하기 때문에 앱 컨트롤러 객체도 인터페이스 빌더에 추가되어야 하고, 그 내부에서 아웃렛/액션 연결을 만들어주었다.
사실 여기까지의 과정은 iOS용 앱을 만드는 과정과 크게 다르지 않다. iOS 앱은 초기화면이 되는 root view가 있고, 이를 제어할 rootViewController가 프로젝트에서 기본적으로 주어지는데, 이 뷰 컨트롤러가 해당 뷰에서의 모든 기능을 컨트롤하는 역할을 한다. macOS는 환경의 차이로 큰 화면 내에서 앱의 UI는 하나의 뷰가 아닌 여러 개의 뷰로 쪼개어질 수 있기 때문에 앱의 전반적인 관리를 수행할 앱 컨트롤러가 필요한 것이다. (물론 각 윈도우마다 윈도 컨트롤러를 만들거나, 뷰 마다 뷰 컨트롤러를 붙이는 것도 가능하다.)
다음 글에서는 이 앱을 조금 다듬고, 목소리를 변경할 수 있는 기능을 추가하는 방법에 대해서 알아보도록 하자.
참고자료
- 코코아 앱 따라하기 – 2
- 코코아 앱 따라하기 – 3
- Objective-C의 선언 프로퍼티
- NSSpeechSynthesizer – Apple Developer