]> git.rm.cloudns.org Git - xonotic/gmqcc.git/commitdiff
FTBFS fixes
authorDale Weiler <killfieldengine@gmail.com>
Thu, 20 Dec 2012 08:17:04 +0000 (08:17 +0000)
committerDale Weiler <killfieldengine@gmail.com>
Thu, 20 Dec 2012 08:17:04 +0000 (08:17 +0000)
con.c
gmqcc.h

diff --git a/con.c b/con.c
index 53fc308e6df8583c54e107ecb326df7d3dd4781c..b20febd516a10aefd8069f09f32f28f8e4c62d18 100644 (file)
--- a/con.c
+++ b/con.c
@@ -46,7 +46,7 @@ typedef struct {
  * Doing colored output on windows is fucking stupid.  The linux way is
  * the real way. So we emulate it on windows :)
  */
-#ifdef _WIN32
+#ifdef _MSC_VER
 #define WIN32_LEAN_AND_MEAN
 #include <windows.h>
 
@@ -208,7 +208,7 @@ static void con_enablecolor() {
  */
 static int con_write(FILE *handle, const char *fmt, va_list va) {
     int      ln;
-    #ifndef _WIN32
+    #ifndef _MSC_VER
     ln = vfprintf(handle, fmt, va);
     #else
     {
@@ -331,7 +331,7 @@ void con_vprintmsg_c(int level, const char *name, size_t line, const char *msgty
 
     int  err                         = !!(level == LVL_ERROR);
     int  color                       = (err) ? console.color_err : console.color_out;
-    int (*print)(const char *, ...)  = (err) ? &con_err          : &con_out;
+    int (*print) (const char *, ...)  = (err) ? &con_err          : &con_out;
     int (*vprint)(const char *, va_list) = (err) ? &con_verr : &con_vout;
 
     if (color)
diff --git a/gmqcc.h b/gmqcc.h
index 53a5460bf9718b6cac970e734a9549673db84f45..ee9853e6305e9fec4a6a040b663df2c7aca6ae48 100644 (file)
--- a/gmqcc.h
+++ b/gmqcc.h
  * for systems that don't have it, which we must
  * assume is all systems. (int8_t not required)
  */
-#if   CHAR_MIN  == -128
-    typedef unsigned char  uint8_t; /* same as below */
-#elif SCHAR_MIN == -128
-    typedef unsigned char  uint8_t; /* same as above */
-#endif
-#if   SHRT_MAX  == 0x7FFF
-    typedef short          int16_t;
-    typedef unsigned short uint16_t;
-#elif INT_MAX   == 0x7FFF
-    typedef int            int16_t;
-    typedef unsigned int   uint16_t;
-#endif
-#if   INT_MAX   == 0x7FFFFFFF
-    typedef int            int32_t;
-    typedef unsigned int   uint32_t;
-#elif LONG_MAX  == 0x7FFFFFFF
-    typedef long           int32_t;
-    typedef unsigned long  uint32_t;
-#endif
-
-
-#if defined(__GNUC__) || defined (__CLANG__)
-       typedef int              int64_t  __attribute__((__mode__(__DI__)));
-       typedef unsigned int     uint64_t __attribute__((__mode__(__DI__)));
-#elif defined(_MSC_VER)
-       typedef __int64          int64_t;
-       typedef unsigned __int64 uint64_t;
+#if __STDC_VERSION__ < 199901L
+#   if   CHAR_MIN  == -128
+        typedef unsigned char  uint8_t; /* same as below */
+#   elif SCHAR_MIN == -128
+        typedef unsigned char  uint8_t; /* same as above */
+#   endif
+#   if   SHRT_MAX  == 0x7FFF
+        typedef short          int16_t;
+        typedef unsigned short uint16_t;
+#   elif INT_MAX   == 0x7FFF
+        typedef int            int16_t;
+        typedef unsigned int   uint16_t;
+#   endif
+#   if   INT_MAX   == 0x7FFFFFFF
+        typedef int            int32_t;
+        typedef unsigned int   uint32_t;
+#   elif LONG_MAX  == 0x7FFFFFFF
+        typedef long           int32_t;
+        typedef unsigned long  uint32_t;
+#   endif
+
+#   if defined(__GNUC__) || defined (__CLANG__)
+        typedef int              int64_t  __attribute__((__mode__(__DI__)));
+        typedef unsigned int     uint64_t __attribute__((__mode__(__DI__)));
+#   elif defined(_MSC_VER)
+        typedef __int64          int64_t;
+        typedef unsigned __int64 uint64_t;
+#   else
+        /*
+        * Incorrectly size the types so static assertions below will
+        * fail.  There is no valid way to get a 64bit type at this point
+        * without making assumptions of too many things.
+        */
+        typedef struct { char _fail : 0; } int64_t;
+        typedef struct { char _fail : 0; } uint64_t;
+#   endif
+    /* Ensure type sizes are correct: */
+    typedef char uint8_size_is_correct  [sizeof(uint8_t)  == 1?1:-1];
+    typedef char uint16_size_is_correct [sizeof(uint16_t) == 2?1:-1];
+    typedef char uint32_size_is_correct [sizeof(uint32_t) == 4?1:-1];
+    typedef char uint64_size_is_correct [sizeof(uint64_t) == 8?1:-1];
+    typedef char int16_size_if_correct  [sizeof(int16_t)  == 2?1:-1];
+    typedef char int32_size_is_correct  [sizeof(int32_t)  == 4?1:-1];
+    typedef char int64_size_is_correct  [sizeof(int64_t)  >= 8?1:-1];
 #else
-    /*
-    * Incorrectly size the types so static assertions below will
-    * fail.  There is no valid way to get a 64bit type at this point
-    * without making assumptions of too many things.
-    */
-    typedef struct { char _fail : 0; } int64_t;
-    typedef struct { char _fail : 0; } uint64_t;
+#   include <stdint.h>
 #endif
-/* Ensure type sizes are correct: */
-typedef char uint8_size_is_correct  [sizeof(uint8_t)  == 1?1:-1];
-typedef char uint16_size_is_correct [sizeof(uint16_t) == 2?1:-1];
-typedef char uint32_size_is_correct [sizeof(uint32_t) == 4?1:-1];
-typedef char uint64_size_is_correct [sizeof(uint64_t) == 8?1:-1];
-typedef char int16_size_if_correct  [sizeof(int16_t)  == 2?1:-1];
-typedef char int32_size_is_correct  [sizeof(int32_t)  == 4?1:-1];
-typedef char int64_size_is_correct  [sizeof(int64_t)  >= 8?1:-1];
 
 /*===================================================================*/
 /*=========================== util.c ================================*/