Diff for /libaitsched/src/tasks.c between versions 1.24 and 1.24.2.4

version 1.24, 2014/04/27 16:20:37 version 1.24.2.4, 2014/06/03 20:39:54
Line 57  sched_useTask(sched_root_task_t * __restrict root) Line 57  sched_useTask(sched_root_task_t * __restrict root)
 {  {
         sched_task_t *task, *tmp;          sched_task_t *task, *tmp;
   
#ifdef HAVE_LIBPTHREAD        SCHED_QLOCK(root, taskUNUSE);
        pthread_mutex_lock(&root->root_mtx[taskUNUSE]); 
#endif 
         TAILQ_FOREACH_SAFE(task, &root->root_unuse, task_node, tmp) {          TAILQ_FOREACH_SAFE(task, &root->root_unuse, task_node, tmp) {
                 if (!TASK_ISLOCKED(task)) {                  if (!TASK_ISLOCKED(task)) {
                         TAILQ_REMOVE(&root->root_unuse, task, task_node);                          TAILQ_REMOVE(&root->root_unuse, task, task_node);
                         break;                          break;
                 }                  }
         }          }
#ifdef HAVE_LIBPTHREAD        SCHED_QUNLOCK(root, taskUNUSE);
        pthread_mutex_unlock(&root->root_mtx[taskUNUSE]); 
#endif 
   
         if (!task) {          if (!task) {
                 task = malloc(sizeof(sched_task_t));                  task = malloc(sizeof(sched_task_t));
Line 93  sched_task_t * Line 89  sched_task_t *
 sched_unuseTask(sched_task_t * __restrict task)  sched_unuseTask(sched_task_t * __restrict task)
 {  {
         TASK_UNLOCK(task);          TASK_UNLOCK(task);
   
         TASK_TYPE(task) = taskUNUSE;          TASK_TYPE(task) = taskUNUSE;
#ifdef HAVE_LIBPTHREAD        insert_task_to(task, &(TASK_ROOT(task))->root_unuse);
        pthread_mutex_lock(&TASK_ROOT(task)->root_mtx[taskUNUSE]); 
#endif 
        TAILQ_INSERT_TAIL(&TASK_ROOT(task)->root_unuse, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
        pthread_mutex_unlock(&TASK_ROOT(task)->root_mtx[taskUNUSE]); 
#endif 
        task = NULL; 
   
           task = NULL;
         return task;          return task;
 }  }
   
 #pragma GCC visibility push(hidden)  #pragma GCC visibility push(hidden)
   
 #ifdef HAVE_LIBPTHREAD  #ifdef HAVE_LIBPTHREAD
 static void  
 _sched_threadCleanup(sched_task_t *t)  
 {  
         if (!t || !TASK_ROOT(t))  
                 return;  
   
         pthread_mutex_lock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);  
         TAILQ_REMOVE(&TASK_ROOT(t)->root_thread, t, task_node);  
         pthread_mutex_unlock(&TASK_ROOT(t)->root_mtx[taskTHREAD]);  
         sched_unuseTask(t);  
 }  
 void *  void *
 _sched_threadWrapper(sched_task_t *t)  _sched_threadWrapper(sched_task_t *t)
 {  {
         void *ret = NULL;          void *ret = NULL;
           sched_root_task_t *r;
   
         pthread_cleanup_push((void (*)(void*)) _sched_threadCleanup, t);  
   
         if (!t || !TASK_ROOT(t))          if (!t || !TASK_ROOT(t))
                 pthread_exit(ret);                  pthread_exit(ret);
           else
                   r = (sched_root_task_t*) TASK_ROOT(t);
   
         pthread_setcancelstate(PTHREAD_CANCEL_ENABLE, NULL);          pthread_setcancelstate(PTHREAD_CANCEL_ENABLE, NULL);
         /*          /*
Line 139  _sched_threadWrapper(sched_task_t *t) Line 120  _sched_threadWrapper(sched_task_t *t)
         pthread_testcancel();          pthread_testcancel();
   
         ret = schedCall(t);          ret = schedCall(t);
           r->root_ret = ret;
   
        pthread_cleanup_pop(42);        if (TASK_VAL(t)) {
        TASK_ROOT(t)->root_ret = ret;                transit_task2unuse(t, &r->root_thread);
                 TASK_VAL(t) = 0;
         }
 
         pthread_exit(ret);          pthread_exit(ret);
 }  }
 #endif  #endif
Line 150  _sched_threadWrapper(sched_task_t *t) Line 135  _sched_threadWrapper(sched_task_t *t)
 void *  void *
 _sched_rtcWrapper(sched_task_t *t)  _sched_rtcWrapper(sched_task_t *t)
 {  {
         sched_task_func_t func;  
         sched_task_t *task;          sched_task_t *task;
        sched_root_task_t *r;        void *ret;
   
         if (!t || !TASK_ROOT(t) || !TASK_DATA(t))          if (!t || !TASK_ROOT(t) || !TASK_DATA(t))
                 return NULL;                  return NULL;
         else {          else {
                 r = TASK_ROOT(t);  
                 task = (sched_task_t*) TASK_DATA(t);                  task = (sched_task_t*) TASK_DATA(t);
                func = TASK_FUNC(task);                timer_delete((timer_t) TASK_DATLEN(t));
         }          }
   
#ifdef HAVE_LIBPTHREAD        ret = schedCall(task);
        pthread_mutex_lock(&r->root_mtx[taskRTC]); 
#endif 
        TAILQ_REMOVE(&r->root_rtc, task, task_node); 
#ifdef HAVE_LIBPTHREAD 
        pthread_mutex_unlock(&r->root_mtx[taskRTC]); 
#endif 
        sched_unuseTask(task); 
   
        timer_delete((timer_t) TASK_DATLEN(t));        transit_task2unuse(task, &(TASK_ROOT(task))->root_rtc);
        return ret;
        return schedCall(task); 
 }  }
 #endif  #endif
   
Line 225  schedRead(sched_root_task_t * __restrict root, sched_t Line 200  schedRead(sched_root_task_t * __restrict root, sched_t
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskREAD;          TASK_TYPE(task) = taskREAD;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 240  schedRead(sched_root_task_t * __restrict root, sched_t Line 215  schedRead(sched_root_task_t * __restrict root, sched_t
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_read);
                pthread_mutex_lock(&root->root_mtx[taskREAD]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_read, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskREAD]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
Line 279  schedWrite(sched_root_task_t * __restrict root, sched_ Line 248  schedWrite(sched_root_task_t * __restrict root, sched_
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskWRITE;          TASK_TYPE(task) = taskWRITE;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 294  schedWrite(sched_root_task_t * __restrict root, sched_ Line 263  schedWrite(sched_root_task_t * __restrict root, sched_
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_write);
                pthread_mutex_lock(&root->root_mtx[taskWRITE]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_write, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskWRITE]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
Line 323  sched_task_t * Line 286  sched_task_t *
 schedNode(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedNode(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 337  schedNode(sched_root_task_t * __restrict root, sched_t Line 300  schedNode(sched_root_task_t * __restrict root, sched_t
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskNODE;          TASK_TYPE(task) = taskNODE;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 352  schedNode(sched_root_task_t * __restrict root, sched_t Line 315  schedNode(sched_root_task_t * __restrict root, sched_t
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_node);
                pthread_mutex_lock(&root->root_mtx[taskNODE]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_node, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskNODE]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 382  sched_task_t * Line 339  sched_task_t *
 schedProc(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long pid,   schedProc(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long pid, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 396  schedProc(sched_root_task_t * __restrict root, sched_t Line 353  schedProc(sched_root_task_t * __restrict root, sched_t
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskPROC;          TASK_TYPE(task) = taskPROC;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 411  schedProc(sched_root_task_t * __restrict root, sched_t Line 368  schedProc(sched_root_task_t * __restrict root, sched_t
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_proc);
                pthread_mutex_lock(&root->root_mtx[taskPROC]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_proc, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskPROC]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 441  sched_task_t * Line 392  sched_task_t *
 schedUser(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long id,   schedUser(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long id, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 459  schedUser(sched_root_task_t * __restrict root, sched_t Line 410  schedUser(sched_root_task_t * __restrict root, sched_t
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskUSER;          TASK_TYPE(task) = taskUSER;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 474  schedUser(sched_root_task_t * __restrict root, sched_t Line 425  schedUser(sched_root_task_t * __restrict root, sched_t
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_user);
                pthread_mutex_lock(&root->root_mtx[taskUSER]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_user, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskUSER]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
 #endif  /* EVFILT_USER */  #endif  /* EVFILT_USER */
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 505  sched_task_t * Line 450  sched_task_t *
 schedSignal(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long sig,   schedSignal(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, u_long sig, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 519  schedSignal(sched_root_task_t * __restrict root, sched Line 464  schedSignal(sched_root_task_t * __restrict root, sched
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskSIGNAL;          TASK_TYPE(task) = taskSIGNAL;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 534  schedSignal(sched_root_task_t * __restrict root, sched Line 479  schedSignal(sched_root_task_t * __restrict root, sched
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_signal);
                pthread_mutex_lock(&root->root_mtx[taskSIGNAL]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_signal, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskSIGNAL]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 564  sched_task_t * Line 503  sched_task_t *
 schedAlarm(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, struct timespec ts,   schedAlarm(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, struct timespec ts, 
                 void *opt_data, size_t opt_dlen)                  void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 578  schedAlarm(sched_root_task_t * __restrict root, sched_ Line 517  schedAlarm(sched_root_task_t * __restrict root, sched_
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskALARM;          TASK_TYPE(task) = taskALARM;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 593  schedAlarm(sched_root_task_t * __restrict root, sched_ Line 532  schedAlarm(sched_root_task_t * __restrict root, sched_
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_alarm);
                pthread_mutex_lock(&root->root_mtx[taskALARM]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_alarm, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskALARM]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 #ifdef AIO_SUPPORT  #ifdef AIO_SUPPORT
Line 624  sched_task_t * Line 557  sched_task_t *
 schedAIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg,   schedAIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, 
                 struct aiocb * __restrict acb, void *opt_data, size_t opt_dlen)                  struct aiocb * __restrict acb, void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 638  schedAIO(sched_root_task_t * __restrict root, sched_ta Line 571  schedAIO(sched_root_task_t * __restrict root, sched_ta
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskAIO;          TASK_TYPE(task) = taskAIO;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 653  schedAIO(sched_root_task_t * __restrict root, sched_ta Line 586  schedAIO(sched_root_task_t * __restrict root, sched_ta
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_aio);
                pthread_mutex_lock(&root->root_mtx[taskAIO]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_aio, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskAIO]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 684  sched_task_t * Line 611  sched_task_t *
 schedAIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedAIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *buffer, size_t buflen, off_t offset)                  void *buffer, size_t buflen, off_t offset)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 724  schedAIORead(sched_root_task_t * __restrict root, sche Line 651  schedAIORead(sched_root_task_t * __restrict root, sche
         }          }
   
         return schedAIO(root, func, arg, acb, buffer, buflen);          return schedAIO(root, func, arg, acb, buffer, buflen);
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 743  sched_task_t * Line 670  sched_task_t *
 schedAIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedAIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 void *buffer, size_t buflen, off_t offset)                  void *buffer, size_t buflen, off_t offset)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 783  schedAIOWrite(sched_root_task_t * __restrict root, sch Line 710  schedAIOWrite(sched_root_task_t * __restrict root, sch
         }          }
   
         return schedAIO(root, func, arg, acb, buffer, buflen);          return schedAIO(root, func, arg, acb, buffer, buflen);
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 #ifdef EVFILT_LIO  #ifdef EVFILT_LIO
Line 802  sched_task_t * Line 729  sched_task_t *
 schedLIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg,   schedLIO(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, 
                 struct aiocb ** __restrict acbs, void *opt_data, size_t opt_dlen)                  struct aiocb ** __restrict acbs, void *opt_data, size_t opt_dlen)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 816  schedLIO(sched_root_task_t * __restrict root, sched_ta Line 743  schedLIO(sched_root_task_t * __restrict root, sched_ta
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskLIO;          TASK_TYPE(task) = taskLIO;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 831  schedLIO(sched_root_task_t * __restrict root, sched_ta Line 758  schedLIO(sched_root_task_t * __restrict root, sched_ta
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_lio);
                pthread_mutex_lock(&root->root_mtx[taskLIO]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_lio, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskLIO]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 862  sched_task_t * Line 783  sched_task_t *
 schedLIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedLIORead(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 struct iovec *bufs, size_t nbufs, off_t offset)                  struct iovec *bufs, size_t nbufs, off_t offset)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 920  schedLIORead(sched_root_task_t * __restrict root, sche Line 841  schedLIORead(sched_root_task_t * __restrict root, sche
         }          }
   
         return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);          return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
   
 /*  /*
Line 939  sched_task_t * Line 860  sched_task_t *
 schedLIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd,   schedLIOWrite(sched_root_task_t * __restrict root, sched_task_func_t func, void *arg, int fd, 
                 struct iovec *bufs, size_t nbufs, off_t offset)                  struct iovec *bufs, size_t nbufs, off_t offset)
 {  {
#ifdef KQ_DISABLE#if SUP_ENABLE != KQ_SUPPORT
         sched_SetErr(ENOTSUP, "disabled kqueue support");          sched_SetErr(ENOTSUP, "disabled kqueue support");
         return NULL;          return NULL;
 #else  #else
Line 997  schedLIOWrite(sched_root_task_t * __restrict root, sch Line 918  schedLIOWrite(sched_root_task_t * __restrict root, sch
         }          }
   
         return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);          return schedLIO(root, func, arg, (void*) acb, bufs, nbufs);
#endif  /* KQ_DISABLE */#endif  /* KQ_SUPPORT */
 }  }
 #endif  /* EVFILT_LIO */  #endif  /* EVFILT_LIO */
 #endif  /* AIO_SUPPORT */  #endif  /* AIO_SUPPORT */
Line 1028  schedTimer(sched_root_task_t * __restrict root, sched_ Line 949  schedTimer(sched_root_task_t * __restrict root, sched_
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskTIMER;          TASK_TYPE(task) = taskTIMER;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1056  schedTimer(sched_root_task_t * __restrict root, sched_ Line 977  schedTimer(sched_root_task_t * __restrict root, sched_
                 ptr = NULL;                  ptr = NULL;
   
         if (!ptr) {          if (!ptr) {
#ifdef HAVE_LIBPTHREAD                SCHED_QLOCK(root, taskTIMER);
                pthread_mutex_lock(&root->root_mtx[taskTIMER]); 
#endif 
 #ifdef TIMER_WITHOUT_SORT  #ifdef TIMER_WITHOUT_SORT
                TAILQ_INSERT_TAIL(&root->root_timer, TASK_ID(task), task_node);                TAILQ_INSERT_TAIL(&root->root_timer, task, task_node);
 #else  #else
                 TAILQ_FOREACH_SAFE(t, &root->root_timer, task_node, tmp)                  TAILQ_FOREACH_SAFE(t, &root->root_timer, task_node, tmp)
                         if (sched_timespeccmp(&TASK_TS(task), &TASK_TS(t), -) < 1)                          if (sched_timespeccmp(&TASK_TS(task), &TASK_TS(t), -) < 1)
                                 break;                                  break;
                 if (!t)                  if (!t)
                        TAILQ_INSERT_TAIL(&root->root_timer, TASK_ID(task), task_node);                        TAILQ_INSERT_TAIL(&root->root_timer, task, task_node);
                 else                  else
                        TAILQ_INSERT_BEFORE(t, TASK_ID(task), task_node);                        TAILQ_INSERT_BEFORE(t, task, task_node);
 #endif  #endif
#ifdef HAVE_LIBPTHREAD                SCHED_QUNLOCK(root, taskTIMER);
                pthread_mutex_unlock(&root->root_mtx[taskTIMER]); 
#endif 
         } else          } else
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
Line 1104  schedEvent(sched_root_task_t * __restrict root, sched_ Line 1021  schedEvent(sched_root_task_t * __restrict root, sched_
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskEVENT;          TASK_TYPE(task) = taskEVENT;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1119  schedEvent(sched_root_task_t * __restrict root, sched_ Line 1036  schedEvent(sched_root_task_t * __restrict root, sched_
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_event);
                pthread_mutex_lock(&root->root_mtx[taskEVENT]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_event, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskEVENT]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
Line 1159  schedTask(sched_root_task_t * __restrict root, sched_t Line 1070  schedTask(sched_root_task_t * __restrict root, sched_t
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskTASK;          TASK_TYPE(task) = taskTASK;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1175  schedTask(sched_root_task_t * __restrict root, sched_t Line 1086  schedTask(sched_root_task_t * __restrict root, sched_t
                 ptr = NULL;                  ptr = NULL;
   
         if (!ptr) {          if (!ptr) {
#ifdef HAVE_LIBPTHREAD                SCHED_QLOCK(root, taskTASK);
                pthread_mutex_lock(&root->root_mtx[taskTASK]); 
#endif 
                 TAILQ_FOREACH_SAFE(t, &root->root_task, task_node, tmp)                  TAILQ_FOREACH_SAFE(t, &root->root_task, task_node, tmp)
                         if (TASK_VAL(task) < TASK_VAL(t))                          if (TASK_VAL(task) < TASK_VAL(t))
                                 break;                                  break;
                 if (!t)                  if (!t)
                        TAILQ_INSERT_TAIL(&root->root_task, TASK_ID(task), task_node);                        TAILQ_INSERT_TAIL(&root->root_task, task, task_node);
                 else                  else
                        TAILQ_INSERT_BEFORE(t, TASK_ID(task), task_node);                        TAILQ_INSERT_BEFORE(t, task, task_node);
#ifdef HAVE_LIBPTHREAD                SCHED_QUNLOCK(root, taskTASK);
                pthread_mutex_unlock(&root->root_mtx[taskTASK]); 
#endif 
         } else          } else
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
Line 1219  schedSuspend(sched_root_task_t * __restrict root, sche Line 1126  schedSuspend(sched_root_task_t * __restrict root, sche
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskSUSPEND;          TASK_TYPE(task) = taskSUSPEND;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1234  schedSuspend(sched_root_task_t * __restrict root, sche Line 1141  schedSuspend(sched_root_task_t * __restrict root, sche
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_suspend);
                pthread_mutex_lock(&root->root_mtx[taskSUSPEND]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_suspend, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskSUSPEND]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;
Line 1273  schedCallOnce(sched_root_task_t * __restrict root, sch Line 1174  schedCallOnce(sched_root_task_t * __restrict root, sch
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskEVENT;          TASK_TYPE(task) = taskEVENT;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1310  schedThread(sched_root_task_t * __restrict root, sched Line 1211  schedThread(sched_root_task_t * __restrict root, sched
 #endif  #endif
         sched_task_t *task;          sched_task_t *task;
         pthread_attr_t attr;          pthread_attr_t attr;
           void *ptr;
   
         if (!root || !func)          if (!root || !func)
                 return NULL;                  return NULL;
   
         /* get new task */          /* get new task */
        if (!(task = sched_useTask(root))) {        if (!(task = sched_useTask(root)))
 
                 return NULL;                  return NULL;
         }  
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskTHREAD;          TASK_TYPE(task) = taskTHREAD;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1330  schedThread(sched_root_task_t * __restrict root, sched Line 1230  schedThread(sched_root_task_t * __restrict root, sched
         TASK_DATLEN(task) = opt_dlen;          TASK_DATLEN(task) = opt_dlen;
   
         pthread_attr_init(&attr);          pthread_attr_init(&attr);
        pthread_attr_setdetachstate(&attr, PTHREAD_DETACHED);        pthread_attr_setdetachstate(&attr, PTHREAD_CREATE_DETACHED);
         if (ss && (errno = pthread_attr_setstacksize(&attr, ss))) {          if (ss && (errno = pthread_attr_setstacksize(&attr, ss))) {
                 LOGERR;                  LOGERR;
                 pthread_attr_destroy(&attr);                  pthread_attr_destroy(&attr);
Line 1342  schedThread(sched_root_task_t * __restrict root, sched Line 1242  schedThread(sched_root_task_t * __restrict root, sched
                 return sched_unuseTask(task);                  return sched_unuseTask(task);
         } else          } else
                 TASK_FLAG(task) = ss;                  TASK_FLAG(task) = ss;
        if ((errno = pthread_attr_setguardsize(&attr, ss))) {
                LOGERR; 
                pthread_attr_destroy(&attr); 
                return sched_unuseTask(task); 
        } 
 #ifdef SCHED_RR  #ifdef SCHED_RR
         pthread_attr_setschedpolicy(&attr, SCHED_RR);          pthread_attr_setschedpolicy(&attr, SCHED_RR);
 #else  #else
         pthread_attr_setschedpolicy(&attr, SCHED_OTHER);          pthread_attr_setschedpolicy(&attr, SCHED_OTHER);
 #endif  #endif
   
         pthread_mutex_lock(&root->root_mtx[taskTHREAD]);  
         TAILQ_INSERT_TAIL(&root->root_thread, TASK_ID(task), task_node);  
         pthread_mutex_unlock(&root->root_mtx[taskTHREAD]);  
   
         if (root->root_hooks.hook_add.thread)          if (root->root_hooks.hook_add.thread)
                if (root->root_hooks.hook_add.thread(task, &attr)) {                ptr = root->root_hooks.hook_add.thread(task, &attr);
                        schedCancel(task);        else
                        task = NULL;                ptr = NULL;
                }
         if (!ptr)
                 insert_task_to(task, &root->root_thread);
         else
                 task = sched_unuseTask(task);
 
         pthread_attr_destroy(&attr);          pthread_attr_destroy(&attr);
         return task;          return task;
 }  }
Line 1392  schedRTC(sched_root_task_t * __restrict root, sched_ta Line 1289  schedRTC(sched_root_task_t * __restrict root, sched_ta
         if (!(task = sched_useTask(root)))          if (!(task = sched_useTask(root)))
                 return NULL;                  return NULL;
   
        task->task_func = func;        TASK_FUNC(task) = func;
         TASK_TYPE(task) = taskRTC;          TASK_TYPE(task) = taskRTC;
         TASK_ROOT(task) = root;          TASK_ROOT(task) = root;
   
Line 1407  schedRTC(sched_root_task_t * __restrict root, sched_ta Line 1304  schedRTC(sched_root_task_t * __restrict root, sched_ta
         else          else
                 ptr = NULL;                  ptr = NULL;
   
        if (!ptr) {        if (!ptr)
#ifdef HAVE_LIBPTHREAD                insert_task_to(task, &root->root_rtc);
                pthread_mutex_lock(&root->root_mtx[taskRTC]);        else
#endif 
                TAILQ_INSERT_TAIL(&root->root_rtc, TASK_ID(task), task_node); 
#ifdef HAVE_LIBPTHREAD 
                pthread_mutex_unlock(&root->root_mtx[taskRTC]); 
#endif 
        } else 
                 task = sched_unuseTask(task);                  task = sched_unuseTask(task);
   
         return task;          return task;

Removed from v.1.24  
changed lines
  Added in v.1.24.2.4


FreeBSD-CVSweb <freebsd-cvsweb@FreeBSD.org>