Insert the letter 'c'
[crawl.git] / crawl-ref / INSTALL.txt
1 Install instructions for Dungeon Crawl Stone Soup (DCSS)
2 --------------------------------------------------------
3
4 Getting DCSS to run
5 -------------------
6
7 This file describes how to compile a runtime executable of DCSS from the
8 source code.  If you're trying to compile Crawl yourself, skip ahead to the
9 next section, "Building Dungeon Crawl Stone Soup".
10
11 If, however, you're having trouble getting a precompiled binary to run:
12
13 1) Check whether you've downloaded and extracted the correct version.
14
15     Platform        Tiles?          Download package
16     --------        ------          ----------------
17     Windows         yes             stone_soup-VERSION-tiles-win32.zip
18     Windows         no              stone_soup-VERSION-win32.zip
19     Mac OS X        yes             stone_soup-VERSION-tiles-osx.zip
20                                     or stone_soup-VERSION-tiles-osx-app.dmg
21     Mac OS X        no              stone_soup-VERSION-osx.zip
22                                     or stone_soup-VERSION-osx-app.dmg
23     Source code     yes             stone_soup-VERSION-src.zip
24                                     or stone_soup-VERSION-src.tar.bz2
25
26 2) Try removing/renaming your saves/ directory in case older saves aren't
27    recognized anymore.
28
29
30 If you still can't get Crawl to run, you can ask for further help on IRC:
31 ##crawl-dev on freenode, forums: https://crawl.develz.org/tavern/ or usenet:
32 rec.games.roguelike.misc.  Please try to be as detailed as possible about
33 any error messages you're getting.
34
35 The rest of the file deals with compiling from the source.
36
37
38 Building Dungeon Crawl Stone Soup
39 ---------------------------------
40
41 Crawl Stone Soup is known to run on the following platforms as of version
42 0.12:
43
44 - Any Unix with GNU or BSD userland.
45 - Mac OS X.
46 - Android.
47 - Microsoft Windows 2000/XP/Vista/7/8
48
49 The only officially supported compilers are gcc (4.7 or newer) and clang
50 (3.4 or newer).  On Windows, gcc is usually available as MinGW; compilation
51 with MSVC (Microsoft Visual Studio 2013) is supported.
52
53 There's no reason Crawl shouldn't work on other modern systems, especially
54 Unixy ones, although some porting may be needed.
55
56 Windows 9X and ME are no longer supported; you might have some luck using
57 cygwin but a native build is probably a lost cause.
58
59
60 Source Code Checkout
61 --------------------
62
63 If you don't already have the source code downloaded (in the form of a .zip
64 or .tar.bz2 file), you can obtain the latest source code from Git.  MinGW
65 users can obtain Git by installing msysgit (described in the MinGW section).
66 Linux users can just install the 'git' or 'git-core' package with whatever
67 package manager they use.  Note that there used to be another package called
68 'git' (now 'gnuit') going around which stands for 'GNU interactive tools'.
69 This is not what you want.
70
71 Once you have Git installed, you just need to do:
72
73     git clone git://gitorious.org/crawl/crawl.git
74
75 And then to get the contributing libraries, enter the newly cloned
76 repository via 'cd crawl' and type:
77
78     git submodule update --init
79
80 This should get you all you need to build Crawl from source.
81
82
83 Optional libraries
84 ------------------
85
86 Crawl can be built with some optional features:
87
88 * Sounds
89 * User Lua scripts
90
91 Crawl Stone Soup also uses a level compiler to compile special level
92 definitions; to make changes to the level compiler, you'll need the flex and
93 bison/byacc tools (Other lex/yaccs may also work).  More details are
94 available below.
95
96 Sound can be provided by SDL2_mixer (the default), by WINMM on Windows
97 (defined by WINMM_PLAY_SOUNDS in AppHdr.h), or by an external command on
98 Unix systems (SOUND_PLAY_COMMAND in AppHdr.h).  To enable this, append
99 SOUND=y to the make invocation.
100
101 Stone Soup 0.6 includes Lua 5.1.4 in its source tree. Crawl uses Lua for
102 dungeon generation.  In addition, Crawl has a (rudimentary) Lua interface
103 for users to run scripts which can do things such as conditionalise parts of
104 the .crawlrc/init.txt.  Such user Lua scripts are enabled by default, but
105 can be turned off by appending NO_LUA_BINDINGS=y to the make invocation.
106
107
108 Building on Unix (Linux, *BSD, Solaris, etc.)
109 ---------------------------------------------
110
111 To install or not to install:
112
113 If only one user on the system (you) is going to be playing Crawl, you do
114 not need to use "make install".  A simple "make" will build Crawl in the
115 source directory, where you can run it as "./crawl".
116
117
118 Prerequisites (Debian):
119
120 On Debian-based systems (Ubuntu, Mint, ...), you can get all dependencies by
121 typing the following as root/sudo:
122 apt-get install build-essential libncursesw5-dev bison flex liblua5.1-0-dev \
123   libsqlite3-dev libz-dev pkg-config libsdl2-image-dev libsdl2-mixer-dev    \
124   libsdl2-dev libfreetype6-dev libpng-dev ttf-dejavu-core
125 (the last five are needed only for tiles builds).  This is the complete set,
126 with it you don't have a need for the bundled "contribs".
127
128 If you are going to be rebuilding after doing small changes a lot, it is
129 recommended that you also install and configure ccache and binutils-gold:
130 apt-get install ccache binutils-gold
131 less /usr/share/doc/ccache/README.Debian
132
133
134 Prerequisites (Fedora):
135
136 On Fedora, and possibly other RPM-based systems, you can get the dependencies
137 by running the following as root:
138 yum install gcc gcc-c++ make bison flex ncurses-devel lua-devel sqlite-devel \
139   zlib-devel pkgconfig SDL-devel SDL_image-devel libpng-devel freetype-devel \
140   dejavu-sans-fonts dejavu-sans-mono-fonts
141 (the last six are needed only for tile builds).  As with Debian, this package
142 list avoids the need for the bundled "contribs".  For Fedora 20 or later,
143 replace lua-devel by compat-lua-devel.
144
145 ccache can be installed with:
146 yum install ccache
147
148
149 Prerequisites (other systems):
150
151 GNU gcc and g++, GNU make, libncursesw or libcursesw. You need the development
152 headers for ncurses - they may not be installed by default on some Unixes.
153
154 For tile builds, you need FreeDesktop's pkg-config, X11 and opengl headers.
155 The latter are likely to come from mesa sources.
156
157 flex and bison are optional but highly recommended. Recent versions of byacc
158 are also fine (edit your makefile appropriately).
159
160 You need to link with a curses library that understands Unicode characters,
161 usually named libncursesw (the development headers for libncursesw are
162 usually in /usr/include/ncursesw).
163
164
165 Building:
166
167 * cd to the source directory.
168
169 * Most users can simply type 'make' without any extra flags, and get a
170   working build as a result.  If just typing 'make' works for you, then you
171   shouldn't need to read any further.  BSD and Solaris users may have to use
172   'gmake' instead of 'make'.
173
174 * If you want a graphical (tiled) build, then you should add 'TILES=y' to
175   the 'make' command-line, like so:
176
177     make TILES=y
178
179   Note that the graphical build requires that you have development libraries
180   installed for SDL, SDL_image, libpng, zlib, and freetype.  If your system
181   doesn't have these installed, you can usually get them via your package
182   manager (apt-get, emerge, yum, etc).
183
184   If you would rather, you can go to the source/contrib directory and type
185   'make', and the required libraries should be built for you.
186
187 * If you want to install Crawl system-wide rather than play from the build
188   directory, you need to specify a directory to hold the save and data files.
189   Specifying a prefix of /usr or /usr/local will default SAVEDIR to
190   "~/.crawl" and DATADIR to share/crawl (relative to the prefix).
191   SAVEDIR must be writeable and owned by the user running crawl, so except
192   for special cases it should be inside "~" (home directory).
193
194 * If you're installing Crawl for multiple users, run 'make install' as root.
195   Crawl will be copied into the directory specified by 'prefix' (see above).
196   The data directory will be created if necessary, and the level layout,
197   tile and help files will be copied there.
198
199 * If you do not want players to be able to script Crawl with Lua, add
200   'NO_LUA_BINDINGS=y' to the 'make' command-line. This removes functionality
201   like autofight, and Lua scripts have been enabled on public servers for
202   many years without any security issues, so there is no real reason to do
203   so.
204
205
206 Building on Mac OS X
207 --------------------
208
209 Before building on Mac OS X, you need a working copy of Xcode and the
210 associated command line tools. For recent versions of OS X, Xcode can be
211 installed through the AppStore as a free download; the associated command
212 line tools can then be installed by opening Xcode, opening the Preferences
213 dialog, and clicking Install on the Command Line Tools line in the Download
214 tab.
215
216 Mac builds then use the Unix build process described above, but require you
217 to add 'APPLE_GCC=y' to the 'make' command-line. In addition, to build the
218 graphical version of Crawl, you must add 'NO_PKGCONFIG=y' and
219 'CONTRIB_SDL=y'.
220
221 So, to build build Crawl on a Mac you could use the following example
222 command lines.
223
224 For the console version:
225   make APPLE_GCC=y
226 For the graphical version:
227   make APPLE_GCC=y NO_PKGCONFIG=y CONTRIB_SDL=y TILES=y
228
229
230 Building on Windows (MinGW)
231 ---------------------------
232
233 NOTE: You cannot build Windows binaries on Windows 9x/ME using MinGW. On
234 9x/ME, you can use the Cygwin build instructions, or build a binary on a
235 Windows NT/2k/XP system (although it would require a good bit of porting to
236 run on 9x).
237
238 * To build Crawl on Windows, first download and install msysgit. msysgit is
239   a full MinGW setup that even includes Git (which happens to be the source
240   code management system used by the Crawl team). To get msysgit, download
241   'msysGit-netinstall' from here:
242
243     http://code.google.com/p/msysgit/downloads/list?q=net+installer
244
245   NOTE: msysgit should be installed to a path that does not contain spaces,
246         such as the default location 'c:\msysgit'.
247
248 * Start msys by running 'c:\msysgit\msys.bat'. Now you're in a MinGW build
249   environment.
250
251 * cd to the the Crawl source directory. For instance, if you have the crawl
252   sources in c:\crawl\source, you would type 'cd /c/crawl/source'.
253
254 * Build Crawl by running 'make'. If you want a graphical build, you will
255   need to add 'TILES=y' on the 'make' command line.
256
257 * When the process finishes, you should be able to run crawl right from the
258   source directory by typing './crawl'
259
260 * If you get a message about missing SDL.h even though you do have contribs
261   installed, your version of msys may suffer from a bug that has been fixed
262   since.  Please either update msys, or delete /mingw/bin/sdl-config so it
263   won't interfere with the copy shipped with Crawl.
264
265 * For you stubborn types who insist on using separate msys and git installs,
266   make sure git.exe is in your PATH when trying to build from git! Otherwise,
267   util/gen_ver.pl will most likely fail to generate build.h.
268
269 Building on Windows (cygwin)
270 ----------------------------
271
272 * Get Cygwin from http://www.cygwin.com/. When installing, ensure that the
273   following packages are selected: gcc, g++, make, flex, bison,
274   libncurses-devel.  If you'd like to build from git, install the git-core
275   package.  You may also want to install diff, patch, and other such tools.
276
277 * Once Cygwin is installed, open a Cygwin bash shell (use the Start menu or
278   desktop icon, do not double-click bash.exe in Explorer).
279
280 * cd to the the Crawl source directory. For instance, if you have the crawl
281   sources in c:\crawl\source, you would type 'cd /cygdrive/c/crawl/source'.
282
283 * Follow the Linux build instructions to build Crawl.
284
285 Building on Windows (MSVC)
286 --------------------------
287
288 * If you do not have Visual Studio 2012 you can get the free Express edition
289   (for Desktop) from http://www.microsoft.com/visualstudio/eng/downloads
290   (look for Visual Studio Express 2012 for Windows Desktop).
291
292 * You'll need a perl environment, there are links to several Windows binaries
293   you can choose from at http://www.perl.org/get.html
294
295 * In the Crawl source, run gen-all.cmd which is in source/util/. This step
296   must be executed any time you update to a new version of the source (or
297   if you have modified tile data or unrandarts).
298
299 * The first time you compile, you need to build the Contribs solution. This
300   compiles various libraries which crawl itself needs to build. This only
301   needs to be performed the first time you build, or if the contribs are
302   ever updated (extremely rare). To do this open and compile Contribs.sln
303   in source/contrib.
304
305 * Open crawl-ref.sln in Visual Studio, this is in source/MSVC/.
306
307 * You can now select Debug or Release from the drop-down build configurations
308   menu on the main toolbar (it should be next to "Local Windows Debugger");
309   crawl.exe can them be compiled by selecting "Build Solution" in the BUILD
310   menu. You can quickly run it by selecting "Start without Debugging" in the
311   debug menu (or debug with "Start Debugging" but the game will run extremely
312   slowly). Note: the Release build can still be debugged using the Visual
313   Studio debugger.
314
315 * Better support for Python (for the webserver project) and Lua (for the dat
316   project) can be installed with these extensions:
317
318   Python Tools for Visual Studio
319   http://pytools.codeplex.com/releases
320
321   Ports of VsLua to Visual Studio 2012
322   http://www.dbfinteractive.com/forum/index.php?topic=5873.0
323   http://pouet.net/topic.php?which=9087
324
325   Try at your own risk, but the first one has been tested and found to be
326   effective.
327
328 Building Tiles versions
329 -----------------------
330
331 * On most platforms, you can simply type:
332     make TILES=y
333
334 * If you compiled the ASCII binary before, you'll need to run 'make clean'
335   before running 'make'.
336
337 * All platforms require the same prerequisites listed in the other sections
338   above for building each of these platforms.
339
340 * All platforms additionally require the development versions of the
341   following software packages installed.
342
343     * SDL (http://www.libsdl.org/download-1.2.php)
344     * SDL_image (http://www.libsdl.org/projects/SDL_image/)
345     * libpng (http://www.libpng.org/pub/png/libpng.html)
346     * Freetype 2 (http://www.freetype.org/download.html)
347
348   On Linux, these can be installed via a package manager (apt-get, emerge,
349   yum, etc).
350
351   On Mac OS X, these will be compiled automatically when you build the Xcode
352   project.
353
354   On Windows (MinGW or Cygwin), these will be compiled as needed when you
355   run 'make TILES=y'.
356
357 * If you want both ASCII and Tiles binaries you need to compile them
358   separately, rename one of them, and copy them into the same Crawl
359   directory.
360
361
362 *****************************************************************************
363 Data files
364 ----------
365
366 Crawl looks for several data files when starting up. They include:
367
368 * Special level and vault layout (dat/*.des) files.
369 * Core Lua code (dat/dlua/*.lua).
370 * Descriptions for monsters and game features (dat/descript/*.txt).
371 * Definitions for monster dialogue and randart names (dat/database/*.txt).
372
373 All these files are in the source tree under source/dat.
374
375 Crawl will also look for documentation files when players invoke the help
376 system.  These files are available under the docs directory.
377
378 Your built Crawl binary must be able to find these files, or it will not
379 start.
380
381 If Crawl is built without an explicit DATA_DIR_PATH (this is the most common
382 setup), it will search for its data files under the current directory, and
383 if it can't find them there, one level above the current directory.  In
384 short, it uses these search paths: ., ./dat, ./docs, .., ../dat, ../docs.
385
386
387 *****************************************************************************
388
389 The level compiler
390 ------------------
391
392 Crawl uses a level compiler to read the level design (.des) files in the
393 source/dat directory.
394
395 If you're using one of standard makefile, the steps described in this
396 section are performed automatically:
397
398 The level compiler source is in the source/util directory (levcomp.lpp and
399 levcomp.ypp).  The steps involved in building the level compiler are:
400
401 * Run flex on levcomp.lpp to produce the levcomp.lex.cc lexer.
402 * Run bison on levcomp.ypp to produce the levcomp.tab.cc parser and
403   levcomp.tab.h
404 * Compile the resulting C++ source files and levcomp.cc and link the object
405   files into the Crawl executable.
406
407 For convenience on systems that don't have flex/bison, pre-generated
408 intermediate files are provided under source/prebuilt.  The makefiles
409 provided with the Crawl source distribution will use these pre-generated
410 files automatically if flex/bison is not available.
411
412
413 *****************************************************************************
414 Optional Libraries (Lua and PCRE)
415 ---------------------------------
416
417 Lua
418 ---
419
420 Security on multiuser systems (Unix):
421
422 As of 0.8, setuid and setgid installs are no longer supported, thus any
423 previous concerns are no longer applicable.  Lua user scripts are sandboxed
424 and should be generally safe even on public servers (besides increasing the
425 attack surface).
426
427 As of 0.3, the Lua source is included with Crawl.  It will be used if you
428 don't have Lua headers installed.  Note that we don't provide security
429 support for Lua, and thus if you run a public server or a kiosk, it is
430 strongly recommended to use system Lua which does receive security updates
431 from whatever distribution you use.
432
433
434 PCRE
435 ----
436 As of 0.6.0, PCRE 7.9 source is included with Crawl.  It is enabled by
437 default.  The sources in contrib/pcre are identical to the 7.9 distro except
438 for the use of a custom-made Makefile instead of the automake system that
439 was in place previously.
440
441 On Unixes, you're better served by the existing POSIX regular expression
442 support.  If you want PCRE, your package management system is again your
443 best bet.  Remember to install development headers, not just the plain
444 library.
445
446
447 Unicode
448 -------
449 As of 0.8, Unicode support is included in all ports.  Still, you might need
450 to ensure your terminal can display non-basic glyphs.
451
452 On Unix, you want an UTF-8 locale.  All modern distributions install one by
453 default, but you might have somehow dropped required settings.  To check
454 this, run "locale charmap", which should say "UTF-8".  If it's not, please
455 ensure either LANG, LC_ALL or LC_CTYPE is set.  A typical line would be
456 "export LC_ALL=en_US.UTF-8".
457
458 On Windows, the console behaves differently for TrueType and legacy (bitmap)
459 fonts.  The latter (mostly) work only on certain language editions of
460 Windows, such as English, and even there, they work adequately only for
461 Crawl's default settings.  For anything more, please select one of TrueType
462 fonts.  If, like one of our players, you are deeply attached to the looks of
463 bitmap fonts, you can download a corrected version of the Terminal font from
464 http://www.yohng.com/software/terminalvector.html