Diff for /libaitsched/src/tasks.c between versions 1.14.2.1 and 1.22.8.1

version 1.14.2.1, 2012/09/10 15:03:08 version 1.22.8.1, 2014/01/28 10:21:43
Line 12  terms: Line 12  terms:
 All of the documentation and software included in the ELWIX and AITNET  All of the documentation and software included in the ELWIX and AITNET
 Releases is copyrighted by ELWIX - Sofia/Bulgaria <info@elwix.org>  Releases is copyrighted by ELWIX - Sofia/Bulgaria <info@elwix.org>
   
Copyright 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011, 2012Copyright 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011, 2012, 2013
         by Michael Pounov <misho@elwix.org>.  All rights reserved.          by Michael Pounov <misho@elwix.org>.  All rights reserved.
   
 Redistribution and use in source and binary forms, with or without  Redistribution and use in source and binary forms, with or without
Line 52  SUCH DAMAGE. Line 52  SUCH DAMAGE.
  * @root = root task   * @root = root task
  * return: NULL error or !=NULL prepared task   * return: NULL error or !=NULL prepared task
  */   */
inline sched_task_t *sched_task_t *
 sched_useTask(sched_root_task_t * __restrict root)  sched_useTask(sched_root_task_t * __restrict root)
 {  {
         sched_task_t *task, *tmp;          sched_task_t *task, *tmp;
Line 89  sched_useTask(sched_root_task_t * __restrict root) Line 89  sched_useTask(sched_root_task_t * __restrict root)
  * @task = task   * @task = task
  * return: always is NULL   * return: always is NULL
  */   */
inline sched_task_t *sched_task_t *
 sched_unuseTask(sched_task_t * __restrict task)  sched_unuseTask(sched_task_t * __restrict task)
 {  {
         TASK_UNLOCK(task);          TASK_UNLOCK(task);
Line 115  _sched_threadCleanup(sched_task_t *t) Line 115  _sched_threadCleanup(sched_task_t *t)
         if (!t || !TASK_ROOT(t))          if (!t || !TASK_ROOT(t))
                 return;                  return;
   
         if (TASK_FLAG(t) == PTHREAD_CREATE_JOINABLE)  
                 pthread_detach(pthread_self());  
   
         pthread_mutex_lock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);          pthread_mutex_lock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);
         TAILQ_REMOVE(&TASK_ROOT(t)->root_thread, t, task_node);          TAILQ_REMOVE(&TASK_ROOT(t)->root_thread, t, task_node);
         pthread_mutex_unlock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);          pthread_mutex_unlock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);
   
         sched_unuseTask(t);          sched_unuseTask(t);
 }  }
 void *  void *
 _sched_threadWrapper(sched_task_t *t)  _sched_threadWrapper(sched_task_t *t)
 {  {
         void *ret = NULL;          void *ret = NULL;
         sem_t *s = NULL;  
   
         if (!t || !TASK_ROOT(t) || !TASK_RET(t))  
                 pthread_exit(ret);  
         else  
                 s = (sem_t*) TASK_RET(t);  
   
         pthread_cleanup_push((void (*)(void*)) _sched_threadCleanup, t);          pthread_cleanup_push((void (*)(void*)) _sched_threadCleanup, t);
   
           if (!t || !TASK_ROOT(t))
                   pthread_exit(ret);
   
         pthread_setcancelstate(PTHREAD_CANCEL_ENABLE, NULL);          pthread_setcancelstate(PTHREAD_CANCEL_ENABLE, NULL);
           /*
         pthread_setcanceltype(PTHREAD_CANCEL_ASYNCHRONOUS, NULL);          pthread_setcanceltype(PTHREAD_CANCEL_ASYNCHRONOUS, NULL);
           */
   
         /* notify parent, thread is ready for execution */          /* notify parent, thread is ready for execution */
         sem_post(s);  
         pthread_testcancel();          pthread_testcancel();
   
        ret = TASK_FUNC(t)(t);        ret = schedCall(t);
   
         pthread_cleanup_pop(42);          pthread_cleanup_pop(42);
         TASK_ROOT(t)->root_ret = ret;          TASK_ROOT(t)->root_ret = ret;
Line 152  _sched_threadWrapper(sched_task_t *t) Line 146  _sched_threadWrapper(sched_task_t *t)
 }  }
 #endif  #endif
   
   #if defined(HAVE_TIMER_CREATE) && defined(HAVE_TIMER_SETTIME)
   void *
   _sched_rtcWrapper(sched_task_t *t)
   {
           sched_task_func_t func;
           sched_task_t *task;
           sched_root_task_t *r;
   
           if (!t || !TASK_ROOT(t) || !TASK_DATA(t))
                   return NULL;
           else {
                   r = TASK_ROOT(t);
                   task = (sched_task_t*) TASK_DATA(t);
                   func = TASK_FUNC(task);
           }
   
   #ifdef HAVE_LIBPTHREAD
           pthread_mutex_lock(&r->root_mtx[taskRTC]);
   #endif
           TAILQ_REMOVE(&r->root_rtc, task, task_node);
   #ifdef HAVE_LIBPTHREAD
           pthread_mutex_unlock(&r->root_mtx[taskRTC]);
   #endif
           sched_unuseTask(task);
   
           timer_delete((timer_t) TASK_DATLEN(t));
   
           return schedCall(task);
   }
   #endif
   
 #pragma GCC visibility pop  #pragma GCC visibility pop
   
 /*  /*
Line 161  _sched_threadWrapper(sched_task_t *t) Line 186  _sched_threadWrapper(sched_task_t *t)
  * @retcode = return code   * @retcode = return code
  * return: return code   * return: return code
  */   */
inline void *void *
 sched_taskExit(sched_task_t *task, intptr_t retcode)  sched_taskExit(sched_task_t *task, intptr_t retcode)
 {  {
         if (!task || !TASK_ROOT(task))          if (!task || !TASK_ROOT(task))
Line 298  sched_task_t * Line 323  sched_task_t *
 schedNode(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedNode(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         sched_task_t *task;          sched_task_t *task;
         void *ptr;          void *ptr;
   
Line 335  schedNode(sched_root_task_t * __restrict root, sched_t Line 364  schedNode(sched_root_task_t * __restrict root, sched_t
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 352  sched_task_t * Line 382  sched_task_t *
 schedProc(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long pid,   schedProc(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long pid, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         sched_task_t *task;          sched_task_t *task;
         void *ptr;          void *ptr;
   
Line 389  schedProc(sched_root_task_t * __restrict root, sched_t Line 423  schedProc(sched_root_task_t * __restrict root, sched_t
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 406  sched_task_t * Line 441  sched_task_t *
 schedUser(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long id,   schedUser(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long id, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
 #ifndef EVFILT_USER  #ifndef EVFILT_USER
         sched_SetErr(ENOTSUP, "Not supported kevent() filter");          sched_SetErr(ENOTSUP, "Not supported kevent() filter");
         return NULL;          return NULL;
Line 447  schedUser(sched_root_task_t * __restrict root, sched_t Line 486  schedUser(sched_root_task_t * __restrict root, sched_t
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif#endif  /* EVFILT_USER */
 #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 511  schedSignal(sched_root_task_t * __restrict root, sched Line 551  schedSignal(sched_root_task_t * __restrict root, sched
  * @func = task execution function   * @func = task execution function
  * @arg = 1st func argument   * @arg = 1st func argument
  * @ts = timeout argument structure, minimum alarm timer resolution is 1msec!   * @ts = timeout argument structure, minimum alarm timer resolution is 1msec!
 * @opt_data = Optional data * @opt_data = Alarm timer ID
  * @opt_dlen = Optional data length   * @opt_dlen = Optional data length
  * return: NULL error or !=NULL new queued task   * return: NULL error or !=NULL new queued task
  */   */
Line 519  sched_task_t * Line 559  sched_task_t *
 schedAlarm(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, struct timespec ts,   schedAlarm(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, struct timespec ts, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         sched_task_t *task;          sched_task_t *task;
         void *ptr;          void *ptr;
   
Line 556  schedAlarm(sched_root_task_t * __restrict root, sched_ Line 600  schedAlarm(sched_root_task_t * __restrict root, sched_
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
   #endif  /* KQ_DISABLE */
 }  }
   
 #ifdef AIO_SUPPORT  #ifdef AIO_SUPPORT
Line 574  sched_task_t * Line 619  sched_task_t *
 schedAIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg,   schedAIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, 
                 struct aiocb * __restrict acb, void *opt_data, size_t opt_dlen)                  struct aiocb * __restrict acb, void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         sched_task_t *task;          sched_task_t *task;
         void *ptr;          void *ptr;
   
Line 611  schedAIO(sched_root_task_t * __restrict root, sched_ta Line 660  schedAIO(sched_root_task_t * __restrict root, sched_ta
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 625  schedAIO(sched_root_task_t * __restrict root, sched_ta Line 675  schedAIO(sched_root_task_t * __restrict root, sched_ta
  * @offset = Offset from start of file, if =-1 from current position   * @offset = Offset from start of file, if =-1 from current position
  * return: NULL error or !=NULL new queued task   * return: NULL error or !=NULL new queued task
  */   */
inline sched_task_t *sched_task_t *
 schedAIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedAIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *buffer, size_t buflen, off_t offset)                  void *buffer, size_t buflen, off_t offset)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         struct aiocb *acb;          struct aiocb *acb;
         off_t off;          off_t off;
   
Line 665  schedAIORead(sched_root_task_t * __restrict root, sche Line 719  schedAIORead(sched_root_task_t * __restrict root, sche
         }          }
   
         return schedAIO(root, func, arg, acb, buffer, buflen);          return schedAIO(root, func, arg, acb, buffer, buflen);
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 679  schedAIORead(sched_root_task_t * __restrict root, sche Line 734  schedAIORead(sched_root_task_t * __restrict root, sche
  * @offset = Offset from start of file, if =-1 from current position   * @offset = Offset from start of file, if =-1 from current position
  * return: NULL error or !=NULL new queued task   * return: NULL error or !=NULL new queued task
  */   */
inline sched_task_t *sched_task_t *
 schedAIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedAIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *buffer, size_t buflen, off_t offset)                  void *buffer, size_t buflen, off_t offset)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         struct aiocb *acb;          struct aiocb *acb;
         off_t off;          off_t off;
   
Line 719  schedAIOWrite(sched_root_task_t * __restrict root, sch Line 778  schedAIOWrite(sched_root_task_t * __restrict root, sch
         }          }
   
         return schedAIO(root, func, arg, acb, buffer, buflen);          return schedAIO(root, func, arg, acb, buffer, buflen);
   #endif  /* KQ_DISABLE */
 }  }
   
 #ifdef EVFILT_LIO  #ifdef EVFILT_LIO
Line 737  sched_task_t * Line 797  sched_task_t *
 schedLIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg,   schedLIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, 
                 struct aiocb ** __restrict acbs, void *opt_data, size_t opt_dlen)                  struct aiocb ** __restrict acbs, void *opt_data, size_t opt_dlen)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         sched_task_t *task;          sched_task_t *task;
         void *ptr;          void *ptr;
   
Line 774  schedLIO(sched_root_task_t * __restrict root, sched_ta Line 838  schedLIO(sched_root_task_t * __restrict root, sched_ta
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 792  sched_task_t * Line 857  sched_task_t *
 schedLIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedLIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 struct iovec *bufs, size_t nbufs, off_t offset)                  struct iovec *bufs, size_t nbufs, off_t offset)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         struct sigevent sig;          struct sigevent sig;
         struct aiocb **acb;          struct aiocb **acb;
         off_t off;          off_t off;
Line 846  schedLIORead(sched_root_task_t * __restrict root, sche Line 915  schedLIORead(sched_root_task_t * __restrict root, sche
         }          }
   
         return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);          return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);
   #endif  /* KQ_DISABLE */
 }  }
   
 /*  /*
Line 860  schedLIORead(sched_root_task_t * __restrict root, sche Line 930  schedLIORead(sched_root_task_t * __restrict root, sche
  * @offset = Offset from start of file, if =-1 from current position   * @offset = Offset from start of file, if =-1 from current position
  * return: NULL error or !=NULL new queued task   * return: NULL error or !=NULL new queued task
  */   */
inline sched_task_t *sched_task_t *
 schedLIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedLIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 struct iovec *bufs, size_t nbufs, off_t offset)                  struct iovec *bufs, size_t nbufs, off_t offset)
 {  {
   #ifdef KQ_DISABLE
           sched_SetErr(ENOTSUP, "disabled kqueue support");
           return NULL;
   #else
         struct sigevent sig;          struct sigevent sig;
         struct aiocb **acb;          struct aiocb **acb;
         off_t off;          off_t off;
Line 918  schedLIOWrite(sched_root_task_t * __restrict root, sch Line 992  schedLIOWrite(sched_root_task_t * __restrict root, sch
         }          }
   
         return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);          return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);
   #endif  /* KQ_DISABLE */
 }  }
 #endif  /* EVFILT_LIO */  #endif  /* EVFILT_LIO */
 #endif  /* AIO_SUPPORT */  #endif  /* AIO_SUPPORT */
Line 1215  schedCallOnce(sched_root_task_t * __restrict root, sch Line 1290  schedCallOnce(sched_root_task_t * __restrict root, sch
  * @root = root task   * @root = root task
  * @func = task execution function   * @func = task execution function
  * @arg = 1st func argument   * @arg = 1st func argument
  * @detach = Detach thread from scheduler, if !=0  
  * @ss = stack size   * @ss = stack size
  * @opt_data = Optional data   * @opt_data = Optional data
  * @opt_dlen = Optional data length   * @opt_dlen = Optional data length
  * return: NULL error or !=NULL new queued task   * return: NULL error or !=NULL new queued task
  */   */
 sched_task_t *  sched_task_t *
schedThread(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int detach, schedThread(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, 
                 size_t ss, void *opt_data, size_t opt_dlen)                  size_t ss, void *opt_data, size_t opt_dlen)
 {  {
 #ifndef HAVE_LIBPTHREAD  #ifndef HAVE_LIBPTHREAD
Line 1230  schedThread(sched_root_task_t * __restrict root, sched Line 1304  schedThread(sched_root_task_t * __restrict root, sched
         return NULL;          return NULL;
 #endif  #endif
         sched_task_t *task;          sched_task_t *task;
         void *ptr;  
         pthread_attr_t attr;          pthread_attr_t attr;
         sem_t *s = NULL;  
   
         if (!root || !func)          if (!root || !func)
                 return NULL;                  return NULL;
         else {  
                 /* normalizing stack size & detach state */  
                 if (ss)  
                         ss &= 0x7FFFFFFF;  
                 detach = detach ? PTHREAD_CREATE_DETACHED : PTHREAD_CREATE_JOINABLE;  
         }  
   
         if (!(s = (sem_t*) malloc(sizeof(sem_t)))) {  
                 LOGERR;  
                 return NULL;  
         }  
         if (sem_init(s, 0, 1)) {  
                 LOGERR;  
                 free(s);  
                 return NULL;  
         }  
   
         /* get new task */          /* get new task */
         if (!(task = sched_useTask(root))) {          if (!(task = sched_useTask(root))) {
                 sem_destroy(s);  
                 free(s);  
   
                 return NULL;                  return NULL;
         }          }
Line 1266  schedThread(sched_root_task_t * __restrict root, sched Line 1320  schedThread(sched_root_task_t * __restrict root, sched
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
         TASK_ARG(task) = arg;          TASK_ARG(task) = arg;
         TASK_FLAG(task) = detach;  
         TASK_RET(task) = (intptr_t) s;  
   
         TASK_DATA(task) = opt_data;          TASK_DATA(task) = opt_data;
         TASK_DATLEN(task) = opt_dlen;          TASK_DATLEN(task) = opt_dlen;
   
         pthread_attr_init(&attr);          pthread_attr_init(&attr);
        pthread_attr_setdetachstate(&attr, detach);        pthread_attr_setdetachstate(&attr, PTHREAD_DETACHED);
         if (ss && (errno = pthread_attr_setstacksize(&attr, ss))) {          if (ss && (errno = pthread_attr_setstacksize(&attr, ss))) {
                 LOGERR;                  LOGERR;
                 pthread_attr_destroy(&attr);                  pthread_attr_destroy(&attr);
                 sem_destroy(s);  
                 free(s);  
                 return sched_unuseTask(task);                  return sched_unuseTask(task);
         }          }
         if ((errno = pthread_attr_getstacksize(&attr, &ss))) {          if ((errno = pthread_attr_getstacksize(&attr, &ss))) {
                 LOGERR;                  LOGERR;
                 pthread_attr_destroy(&attr);                  pthread_attr_destroy(&attr);
                 sem_destroy(s);  
                 free(s);  
                 return sched_unuseTask(task);                  return sched_unuseTask(task);
         } else          } else
                TASK_FLAG(task) |= (ss << 1);                TASK_FLAG(task) = ss;
         if ((errno = pthread_attr_setguardsize(&attr, ss))) {          if ((errno = pthread_attr_setguardsize(&attr, ss))) {
                 LOGERR;                  LOGERR;
                 pthread_attr_destroy(&attr);                  pthread_attr_destroy(&attr);
                 sem_destroy(s);  
                 free(s);  
                 return sched_unuseTask(task);                  return sched_unuseTask(task);
         }          }
 #ifdef SCHED_RR  #ifdef SCHED_RR
Line 1301  schedThread(sched_root_task_t * __restrict root, sched Line 1347  schedThread(sched_root_task_t * __restrict root, sched
 #else  #else
         pthread_attr_setschedpolicy(&attr, SCHED_OTHER);          pthread_attr_setschedpolicy(&attr, SCHED_OTHER);
 #endif  #endif
   
           pthread_mutex_lock(&root->root_mtx[taskTHREAD]);
           TAILQ_INSERT_TAIL(&root->root_thread, TASK_ID(task), task_node);
           pthread_mutex_unlock(&root->root_mtx[taskTHREAD]);
   
         if (root->root_hooks.hook_add.thread)          if (root->root_hooks.hook_add.thread)
                ptr = root->root_hooks.hook_add.thread(task, &attr);                if (root->root_hooks.hook_add.thread(task, &attr)) {
                         schedCancel(task);
                         task = NULL;
                 }
         pthread_attr_destroy(&attr);
         return task;
 }
 
 /*
  * schedRTC() - Add RTC task to scheduler queue
  *
  * @root = root task
  * @func = task execution function
  * @arg = 1st func argument
  * @ts = timeout argument structure, minimum alarm timer resolution is 1msec!
  * @opt_data = Optional RTC ID
  * @opt_dlen = Optional data length
  * return: NULL error or !=NULL new queued task
  */
 sched_task_t *
 schedRTC(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, struct timespec ts, 
                 void *opt_data, size_t opt_dlen)
 {
 #if defined(HAVE_TIMER_CREATE) && defined(HAVE_TIMER_SETTIME)
         sched_task_t *task;
         void *ptr;
 
         if (!root || !func)
                 return NULL;
 
         /* get new task */
         if (!(task = sched_useTask(root)))
                 return NULL;
 
         task->task_func = func;
         TASK_TYPE(task) = taskRTC;
         TASK_ROOT(task) = root;
 
         TASK_ARG(task) = arg;
         TASK_TS(task) = ts;
 
         TASK_DATA(task) = opt_data;
         TASK_DATLEN(task) = opt_dlen;
 
         if (root->root_hooks.hook_add.rtc)
                 ptr = root->root_hooks.hook_add.rtc(task, NULL);
         else          else
                 ptr = NULL;                  ptr = NULL;
         pthread_attr_destroy(&attr);  
   
         if (!ptr) {          if (!ptr) {
                pthread_mutex_lock(&root->root_mtx[taskTHREAD]);#ifdef HAVE_LIBPTHREAD
                TAILQ_INSERT_TAIL(&root->root_thread, TASK_ID(task), task_node);                pthread_mutex_lock(&root->root_mtx[taskRTC]);
                pthread_mutex_unlock(&root->root_mtx[taskTHREAD]);#endif
                TAILQ_INSERT_TAIL(&root->root_rtc, TASK_ID(task), task_node);
                /* wait for init thread actions */#ifdef HAVE_LIBPTHREAD
                sem_wait(s);                pthread_mutex_unlock(&root->root_mtx[taskRTC]);
 #endif
         } else          } else
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         sem_destroy(s);  
         free(s);  
         return task;          return task;
   #else
           sched_SetErr(ENOTSUP, "Not supported realtime clock extensions");
           return NULL;
   #endif
 }  }
   

Removed from v.1.14.2.1  
changed lines
  Added in v.1.22.8.1


FreeBSD-CVSweb <freebsd-cvsweb@FreeBSD.org>