Public Articles
Immunity Article Template
Biophysical Journal Article Template
Nano Letters Article Template
Science Article Template
Bioessays Article Template
PLOS ONE Article Template
LOGNORM: Conductance-based refractory density approach and its extension for lognormal input weight distribution
#1#2 #1#2 #1#2 #1#2 #1 + #1#2 #1#2#1 / #2 #1#2 #1#1 #1#2 #1#2 #1#1 #1#1 #1 #1 #1 #1 Conductance-based refractory density (CBRD) approach is an efficient approach that describes firing activity of a statistical ensemble of uncoupled Hodgkin-Huxley-like neurons each receiving individual gaussian noise and common time-varying deterministic input. However, the approach requires comparison with experiments and extension to the case of more realistic synaptic connectivity. Here we verify a CBRD model through comparison with experimental data and then generalize the model for the case of lognormal (LN) distribution of input weights within a population. We show that the model with equal weights efficiently reproduces post-spike time histogram and membrane voltage of experimental multiple-trial response of single neurons to step-wise current injection and reveals much more rapid reaction of firing-rate than voltage. Slow adaptive potassium channels strongly affect the shape of the responses. Next, we derive a computationally efficient CBRD model for a population with the LN input weight distribution and compare it to the original model with equal input weights. The analysis shows that the LN distribution does: (i) provide faster response; (ii) eliminate oscillations; (iii) lead to higher sensitivity to weak stimuli; (iv) increase the coefficient of variation of interspike intervals. In addition, a simplified, firing-rate type model is tested, showing better precision in the case of LN distribution of weights. More generally, the CBRD approach can be recommended for complex, biophysically detailed simulations of interacting neuronal populations, and the modified firing-rate type model for computationally reduced simulations.
\label{1}
Known neuronal population models belong either to the type of very simplified models such as firing-rate (FR) or neural mass models or to those that are based on probability-density approach (PDA). FR-models are usually expressed by algebraic or ordinary differential equations and easy to analyze. However, they are not fully adequate for transient process simulations because of their basic assumption that neurons are always desynchronized. A probability density approach avoids this assumption, however this approach is commonly applied to simplified, one-variable neurons like linear and nonlinear integrate-and-fire, or spike-response model or so \cite{Gerstner}, \cite{Eggert_2001}, \cite{Knight_2000}, \cite{Naud_2012}, \cite{Fourcaud_2003}. This limitation has been overcome by a conductance-based refractory density approach (CBRD) that is applicable to regular-spiking, adaptive and fast-spiking neurons described in terms of Hodgkin-Huxley-like approximations \cite{Chizhov_2007}. The CBRD approach has been proposed for an infinite set of such uncoupled neurons receiving a common input and an individual gaussian white noise-current. The model was later extended to the case of color noise \cite{Chizhov_2008}. Such model is found to be quite efficient for simulation of coupled populations \cite{Chizhov_2013}. The approach is worth being further developed and used in analysis of experimental data. In the present paper, the CBRD model is applied to experimental data revealing rapid population response to a weak input. Matching the model to experimental dataset validates the model, which then reveals the influence of neuronal parameters on the response. Further, the model is generalized for the case of lognormal distribution of the weights of the input received by different neurons of a population, which has many physiological implications \cite{Teramae_2014}. In addition, a simplified, firing-rate type model is tested to simulate a population with lognormal weights.
\label{2} For the purpose of clarifying the ideas of the CBRD-approach and its extension to the lognormal input weight distribution, we present in this section the models for simplified, integrate-and-fire neurons. The details of the model for adaptive Hogkin-Huxley like neurons can be found in \cite{Chizhov_2007} or \cite{Chizhov_2013}.
\label{2.1}
The LIF neuron is given by the equation \begin{equation}\label{e221} C~{dV\over dt}=-(g_L+s(t)) (V-V_{rest}) + I(t) + \sigma ~\xi(t), \end{equation} where ξ(t) is a gaussian white noise characterized by its mean value, <ξ(t)> = 0, and auto-correlation <ξ(t)ξ(t′) > =C/gL δ(t − t′); σ is the noise amplitude. The neuron fires when the potential V crosses the threshold $\VT$. Immediately after the spike the potential V is reset to Vreset. The LIF neuron is characterized by the capacitance C and the leak conductance gL. The input is determined by two signals, the synaptic current I(t) that is measured at the voltage level equal to Vrest, and the total synaptic conductance s(t). The effective membrane time constant is τm = C/(gL + s(t)).
We will refer to as a population an infinite number of eq.([e221])-based LIF neurons receiving a deterministic 2-d input (I(t),s(t)) and individual for each neuron noise. The population firing rate is defined as a sum of all spikes, nact, from neurons of the population over a short time window Δt, divided by the number of neurons, N. After taking the limits of N → ∞ and Δt → 0, the firing rate ν is obtained as \begin{equation}\label{e2013} \nu(t)=\lim_{\Delta t \rightarrow 0} \lim_{N \rightarrow \infty} \frac{1}{\Delta t} ~\frac{n^{act}(t;~t+\Delta t)}{N}. \end{equation}
The steady-state firing rate is given by the solution from \cite{Johannesma_1968} \begin{eqnarray}\label{e223} \nu^{SS}&=&\Biggl(\frac{C}{g_L+s(t)} ~\sqrt{\pi} \int_{(V_{reset}-U)/\sigma_V \sqrt(2)}^{(\VT-U)/\sigma_V \sqrt(2)} \exp(u^2) (1+\erf(u)) ~du \Biggr)^{-1}, \\ \label{e224} U&=&V_{rest}+I/(g_L+S),\\ \label{e225} \sigma_V&=&\frac{\sigma}{\sqrt{2}(g_L+s)} \\ \end{eqnarray} where σV is the voltage dispersion; here U is the depolarization potential in the steady-state.
\label{2.2}
As justified in \cite{Chizhov_2007}, \cite{Chizhov_2008}, the firing rate for a population of LIF neurons is well approximated by the system of equations for the refractory density $\rho(t,\ts)$ and the averaged across noise realizations membrane potential $U(t,\ts)$, where $\ts$ is the time elapsed since the last spike. Thereby, the CBRD method distinguishes neurons only according to their $\ts$-variable. In order words, the state of each neuron is parameterized by this phase variable. For the particular case of a LIF-neuron, its only state variable is V, whereas for more complex neuron models the other state variables, the gating variables of ionic channels, are also parameterized by $\ts$, which is the reduction to an only one phase variable description that rather precisely saves the information about neuronal states because of the same history of input for all neurons \cite{Chizhov_2007}. Returning to LIF-neurons, the equations for $\rho(t,\ts)$ and $U(t,\ts)$ are as follows \begin{eqnarray}\label{e241} \derc{\rho}t +\derc{\rho}{\ts}&=&-\rho~ H(U), \\ \label{e242} C\Biggl(\derc Ut + \derc U{\ts} \Biggr) &=& -(g_L+s(t)) (U-V_{rest}) + I(t), \end{eqnarray} where H is a hazard function which is defined below. The boundary conditions are \begin{eqnarray}\label{e2425} \nu(t) \equiv \rho(t,0)=\int \limits_{+0}^{\infty} \rho H d\ts \end{eqnarray} and U(t, 0)=Vreset, where ν(t) is the population firing rate. When calculating the dynamics of a neuronal population, the integration of eq.([e242]) determines the distribution of not-noisy voltage U across $\ts$. The effect of crossing the threshold and the diffusion due to noise are evaluated by the H-function and affect the equation for ρ. The result of the integration of eq.([e241]) is the distribution of ρ across $\ts$ and the firing rate ν calculated from ([e2425]).
The hazard function H is defined as the probability for a single neuron to generate a spike, if known actual neuron state variables. The hazard function H has been approximated in \cite{Chizhov_2007} for the case of white noise and in \cite{Chizhov_2008} for the case of color noise as a function of U(t) and s(t), and parameters σ, $\VT$ and the ratio of membrane to noise time constants k = τm/τNoise: \begin{eqnarray}\label{e243} H&(U)&= A+B,\\ A&=& %A_{0}&=& \frac{1}{\tau_m} e^{0.0061-1.12~T-0.257~T^2-0.072~T^3-0.0117~T^4} %\nonumber \\&\cdot& \biggl(1-(1+k)^{-0.71+0.0825(T+3)}\biggr),\nonumber \\ B&=&-\sqrt{2} ~ \biggl\lbrack {dT \over dt} \biggr\rbrack_{+} \tilde F(T), ~~~\tilde F(T)=\sqrt{2 \over \pi} ~{\exp(-T^2) \over 1+\erf(T)},~~~ %\nonumber \\ T=\frac{\VT-U}{\sqrt{2}~\sigma_V}, \nonumber \end{eqnarray} where T is the membrane potential relative to the threshold, scaled by noise amplitude; A is the hazard for a neuron to cross the threshold because of noise, derived analytically in \cite{Chizhov_2007} and approximated by exponential and polynomial for convenience; B is the hazard for a neuron to fire because of depolarization due to deterministic drive, i.e. the hazard due to drift in the voltage phase space. Note that the H-function is independent of the basic neuron model and does not contain any free parameters or functions for fitting to any particular case. In this aspect, the H-function can be useful not only as a component of a population model, but as well for analysis tasks such as evaluation of neuronal susceptibility \cite{Payeur_2015}, effects of noise etc.
\label{2.3}
Conventional firing-rate type models often fail to describe well a population activity in transient states. A modified firing-rate model has been proposed in \cite{Chizhov_2007a}, which improves the transient solutions to step-like or complex-shape inputs \cite{Buchin_2010a}. Below such model is given for the LIF-neuron population.
The subthreshold voltage U(t) is calculated as \begin{equation}\label{e231} C~{dU\over dt}=-(g_L+s(t)) (U-V_{rest}) + I(t), \end{equation} and the firing rate is calculated by the following formula \begin{eqnarray}\label{e232} \nu&=&\bigl[\nu^{SS} + \nu^{US} \bigr]_{+}, \\ \label{e234} \nu^{US}&=&{1 \over \sqrt{2\pi} \sigma_V}{dU \over dt} \exp\Biggl( -{(\VT-U)^2 \over 2 \sigma_V^2} \Biggr), \end{eqnarray} where the function [x]+ is defined as x for x > 0 and 0 otherwise. The term νSS is the steady-state solution ([e223]). The essence of the model modification consists in the term νUS, which evaluates the firing rate in response to fast excitation in assumption of a frozen gaussian distribution of neuronal membrane potentials crossing the threshold.
\label{3}
\label{3.-1} To validate the CBRD-model based on eqs.([e221]-[e223]) we compare it with Monte-Carlo (MC) simulation on a test problem of step-wise current stimulation. In MC simulations eq.([e221]) has been integrated 4000 times with different realizations of noise. The firing rate has been calculated from eq.([e2013]). As seen in Fig.[F-1]A, the CBRD and MC solutions are close; they converge with the increase of the number of neurons in MS simulations.
For LIF neuron with white noise in steady-state, the analytical solution for the firing rate is known, it is given by eq.([e223]-[e225]). The CBRD-model matches to this solution with a high precision, as demonstrated by Fig.[F-1]B. Important, that the both solutions converge not only for variable input current but also for the input conductance.
\label{3.0} According to above introduced definition of a population, the neurons are independent from each other, thus, such population is equivalent to a number of noise realizations for a single neuron. Hence, statistics of the behavior of a neuron receiving both deterministic and stochastic inputs is governed by the same model as a single population. That is why, we compare the CBRD-model with experimental multiple registrations in a single neuron \cite{Tchumatchenko_2011}. A weak step-wise current was injected into the neuron. The statistics of spiking response is characterized by the post-stimulus spike-time histogram (PSTH) which corresponds to the firing rate for a population. The model has been taken from \cite{Chizhov_2007}. In this model a basic single neuron had a few potassium ionic channels. The adaptation was taken into account in the forms of the M-current and the current of afterhyperpolarization (AHP-current) which effectively approximates the effects of potassium calcium-dependent currents. The spike trains in response to step-wise current injection reveals the similarity of the modeled and registered neuronal responses (compare Figure 1A,D in \cite{Tchumatchenko_2011}) with Fig. [Fig1ABCD]A,C) and the effects of the adaptation. As to population response, the experimental PSTH (Figure 1E in \cite{Tchumatchenko_2011}) is similar to the modeled firing rate (Fig. [Fig1ABCD]D). The response in the model is as fast as in the experiment, the timing of peaks, the amplitudes of the firing rate and the character of relaxation to the steady-state are similar. Also we find out similar rapid reaction to the change of the amplitude of noise (Fig. [Fig3B]).
The most affective factors determining the shape of firing response are the level of background activity before the stimulus and the slow potassium channels (Fig. [Fig_SpontActivity_and_WhiteColorNoise]). As seen from comparison of Fig. [Fig_SpontActivity_and_WhiteColorNoise]C and D with Fig. [Fig_SpontActivity_and_WhiteColorNoise]B, the presence of spiking activity before the stimulus is critical for the rapidness of the response. The bigger the firing rate before stimulation the faster the response. This fact is consistent with the findings of the experimental study \cite{Tchumatchenko_2011}. Blockage of M- and AHP-currents crucially changes the later phases of the response, especially its steady-state, as seen from comparison of Fig. [Fig_SpontActivity_and_WhiteColorNoise]H with Fig. [Fig_SpontActivity_and_WhiteColorNoise]F. Regarding the time correlations of the noise, their effect is moderate (compare Fig. [Fig_SpontActivity_and_WhiteColorNoise]G with Fig. [Fig_SpontActivity_and_WhiteColorNoise]F).
\label{3.1} Our goal is to generalize the CBRD-approach for a population of neurons receiving equal input I(t) and noise, that based on eqs.([e241]-[e243]), to the case of a population consisting of neurons receiving lognormally distributed deterministic inputs Ix(t). The distribution of the current Ix(t) scaled by its mean across the distribution I(t), x = Ix(t)/I(t), is as follows \begin{eqnarray}\label{e3.1} \psi(x)=\frac{\exp\bigl({-{(\ln x)^2}/{(2~\sigma_{LN}^2)}}\bigr)}{\sqrt{2\pi}~\sigma_{LN} ~x} \end{eqnarray} Let us consider neurons parameterized with x, i.e. those neurons that receive the deterministic input current Ix(t) as well as the input conductance s(t) and the noise σ ξ(t) introduced into eq.([e221]). The voltage averaged across realizations of the noise, to be denoted as Ux, is governed by eq.([e242]) written for Ux instead of U and Ix(t) instead of I(t). Such equation is linear in respect to Ix(t), thus the deflection of voltage $U_x(t,\ts)$ from the unperturbed state $U_{free}(\ts)$ (defined for zero input current I(t)=0) is also lognormally distributed in accordance to eq.([e3.1]), with its mean $U(t,\ts)-U_{free}(\ts)$ corresponding to the mean input current I(t). That is why, the voltage $U_x(t,\ts)$ can be found as \begin{eqnarray}\label{e3.3} U_x(t,\ts)=(U(t,\ts)-U_{free}(\ts))~x+U_{free}(\ts). \end{eqnarray}
It allows to reduce the consideration by avoiding direct solving of equations in partial derivatives for $U_x(t,\ts)$ on a semiinfinite space for x. Instead, the statistics for $U_x(t,\ts)$ is described by the single equation ([e242]), the distribution ([e3.1]) for x and the expression ([e3.3]).
Now we derive equation for the neuronal density. The probability for a neuron with the voltage $U_x(t,\ts)$ to generate a spike is estimated by the hazard function H(Ux, dUx/dt). The distribution of neurons parameterized by x in the phase space $\ts$ is denoted as $\rho_x(t,\ts)$. Note that the distribution of $\rho_x(t,\ts)$ across x is not necessarily lognormal. Calculation of $\rho_x(t,\ts)$ require solving of a continuum of eqs.([e241]) for ρx instead of ρ with H(Ux, dUx/dt). The output firing rate is defined as \begin{eqnarray}\label{e3.2} \nu(t)=\int_{0}^{\infty} \rho_x(t,0) ~\psi(x)~dx \end{eqnarray}
The firing rate in the case of lognormal weight distribution of the deterministic input is calculated from eqs.([e241]-[e243], [e3.1]-[e3.2]). Because the extension of the numerical method of the calculations from that for the conventional method from \cite{Chizhov_2007} is straightforward, the precision of the CBRD-model in this case is determined only by the parameters of integration. The values of the numerical parameters were chosen such that a residual error was less than 5%. The approximation of the distribution ([e3.1]) required 10-15 points of discretization; hence, the number of numerically integrated 1-d transport equations for ρx was equal to that number of points plus one (for U).
\label{3.2} To reveal the difference between a population with equal weights and gaussian noise (P) and a population with lognormal distribution of weights (LNP) we considered again the task of step-wise current stimulation (Fig.[Fig_LNP_P_step]). The response of LNP is more rapid than both the voltage and the firing rate response of P, because of contribution of more sensitive neurons with strong weights from the tail of lognormal distribution. The LNP solution does not oscillate as the response of P, because of overlapping of contributions of the whole lognormal distribution. The steady-state firing rate is greater for LNP, because of nonlinear dependence of the firing rate on the input current for a single neuron (Fig. [F-1]B) and thus bigger contribution of the tail of lognormal distribution. The rapidness of the LNP response increases with the amplitude of stimulation (Fig. [Fig_3_ampl_step_and_sin]A). The sensitivity to weak stimulus is greater for LNP, again because of the contribution of the tail of lognormal distribution.
In the steady-state, the lognormal distribution affects not only the firing rate but the interspike interval distribution also. According to the construction of the refractory density model, the distribution of interspike intervals is given by the source term in the eq.([e241]), i.e. ρ H, where ρ is the cumulative density $\rho(\ts)=\int_{0}^{\infty} \rho_x(\ts) ~\psi(x)~dx$. The coefficient of variation (CV) of interspike intervals for the whole population follows from the refractory density $\rho_x(\ts)$ and the hazard function H: \begin{eqnarray} \label{e3.10} CV=\sqrt{ E[\ts^2] %\int_{0}^{\infty} \int_{0}^{\infty} \ts^2~\rho_x(\ts) H(U_x(\ts)) ~d\ts ~\psi(x)~dx %\rho_x(\ts) H(U_x(\ts)) ~\psi(x)~d\ts \\ / (E[\ts])^2 %\biggl( % \int_{0}^{\infty} \int_{0}^{\infty} \ts ~\rho_x(\ts) H(U_x(\ts)) ~\psi(x)~d\ts %\biggr)^2 -1 }, \end{eqnarray} where \begin{eqnarray} \nonumber E[Z]= \int_{0}^{\infty} \int_{0}^{\infty} Z ~\rho_x(\ts) ~H(U_x(\ts)) ~\psi(x)~d\ts \big /~\nu % \int_{0}^{\infty} \int_{0}^{\infty} ~\rho_x(\ts) H(U_x(\ts)) ~\psi(x)~d\ts \end{eqnarray} The dependence of the firing rate and CV on the input current I and the lognormal distribution dispersion σLN is plotted in Fig. [Fig_Iind_nu_CV]A. The CV strongly increases with σLN, which corresponds to the widening of the ISI distribution (ρH) shown in Fig. [Fig_Iind_nu_CV]B.
\label{3.3} We test the quality of solution obtained by the firing-rate model with lognormal distribution of weights (FR-LNP), based on eqs. ([e231]-[e234],[e223] and [e3.1]). As seen from Fig. [Fig_3_ampl_step_and_sin]A, the initial part of the response as well as the plateau of the steady-state are captured by the model. Good approximation of the rapid response at the initial stage is due to the term νUS in the eq.([e232]). The cumulative across the whole lognormal distribution action of this term provides the sharp profile. The most problematic is the phase of relaxation after the end of stimulation, the FR-LNP model shows too delayed relaxation. Better precision of the FR-LNP model is observed in the case of oscillatory input, as seen from Fig. [Fig_3_ampl_step_and_sin]B.
The probability density approach and, in particular, the refractory density approach provides good approximation of firing rate calculation for a statistical ensemble of neurons in transient regimes of activity \cite{Omurtag_2000}, \cite{Eggert_2001}, \cite{Gerstner}, \cite{Gerstnera}, \cite{Harrison_2007}. Among these models, only the refractory density approach has been designed for complex, Hodgkin-Huxley like neurons \cite{Chizhov_2007}, which was referred to as CBRD-model. Also important to note that the hazard-function derived for this model is more precise, does not contain any free forms or parameters for fitting and universal for different basic neuron models and input signal behavior, because it was strictly derived from the first-time passage problem for linearized voltage fluctuations about the time-variable mean near the threshold. These benefits of the model justifies the necessity of its further validation and development. In this paper some additional validations of the approach have been presented, namely its comparison to the alternative methods of firing rate calculation and experimental data. Further, the approach have been generalized to the case of lognormal distribution of “effective” synaptic weights, the weights of the input into neurons of a population.
The CBRD model reveals rapidness and sensitivity of a population response to input changes. These properties are consistent with those found in exponential integrate-and-fire neurons \cite{Iyer_2013} and are physiological important for brain networks \cite{Volgushev_2015}, \cite{Song_2005}. As pointed in \cite{Volgushev_2015}, theoretical analysis identified three basic requirements for fast processing: use of neuronal populations for encoding, background activity, and fast onset dynamics of action potentials in neurons. All these requirements were satisfied in our simulations that have shown fast responses. In particular, the condition of the rapid initiation of action potentials \cite{Ilin_2013}, \cite{Brette_2015} was fulfilled, because the CBRD-model uses threshold criterion for spike initiation, thus the initiation is instantaneous by the construction \cite{Chizhov_2007}. The effect of background activity has been studied and found to be consistent with the experimental observations \cite{Tchumatchenko_2011}. Higher sensitivity is revealed in the case of lognormal distribution, which is explained by contribution of neurons from the tail of the distribution that are sparse but powerful. However this effect of the distribution is less pronounced than that for the interspike interval distribution. The coefficient of variation of intervals between spikes generated by the whole population as a measure of the interspike interval distribution strongly depends on the dispersion that characterizes the lognormal input weight distribution. Nevertheless, this coefficient does not relate directly to the dispersion of interspike intervals for a single neuron, which mechanism was studied in \cite{8423479}, \cite{Christodoulou_2001} etc.
What is also important for simulations of interacting neuronal populations is mathematical complexity of a model and efficiency of its numerical solution. Regarding the CBRD approach, even in the case of realistic neurons and lognormal distribution its mathematical complexity is reduced to tens of one-dimensional transport equations, which are quite solvable numerically. Hence, computational efficiency of the method is comparable to that for population models with one-dimensional neurons and complex synaptic weight distributions, like in \cite{Iyer_2013}. Note, however, the difference between the proposed and the mentioned approach from \cite{Iyer_2013}. The synaptic weights were uncorrelated in time in that approach, whereas the proposed approach considers fixed distribution of weights for the deterministic input and temporally uncorrelated or colored individual noise. These assumptions seem to be more realistic.
The above consideration allows one to conclude that the CBRD approach can be recommended as useful for cortical tissue simulations, because it provides significant gain in precision in comparison to conventional mean-field models, computational effectiveness in comparison with direct network simulations and the detail consideration of biophysical mechanisms in comparison with Fokker-Planck-based models; it also admits mathematical analysis of the system of equations. Regarding more simplified, firing-rate type population models, generally they fail to simulate correctly the transient regimes, however some modifications help to improve their quality \cite{Shriki_2003}, \cite{Gerstnera}, \cite{Chizhov_2007a}. One of such models that was described in Methods was generalized for the case of lognormal distribution of input weights. Its comparison with the CBRD-model has revealed that the modified FR model provides more or less satisfactory approximation in the case of lognormal distribution. Thus, this model can also be recommended for simplified simulations.
This work was supported by the Russian Science Foundation (project 16-15-10201)
Informe semillero - Indicadores biométricos en industria
and 2 collaborators
En la actualidad, las organizaciones presentan la necesidad costante que conservar costos bajos, mantener los niveles de calidad, disminuir el desperdicio e incrementar la producción para alcanzar y sostener la competitividad \cite{bhuiyan2006sustainable}. Gran parte de esto puede hacerse a través de la implantación de la Mejora Continua (MC), definida como una cultura que se mantiene a largo plazo, que tiene especialmente en cuenta la eliminación de cualquier tipo de desperdicio en el sistema organizacional y que involucra a todo el personal mediante un trabajo participativo \cite{bhuiyan2006sustainable, liker2004building, womack2010lean, imai1986key}.
La implantación de la MC se puede considerar como un ejercicio dinámico y complejo en donde las organizaciones deben sortear una serie de barreras que impiden su aplicación efectiva \cite{ab2010implementation}, incluso después de haber obtenido resultados exitosos al inicio de un esfuerzo de MC y al momento de tratar de desarrollarlos en otras áreas de la compañía \cite{dale1997sustaining, bateman2002process}. Dentro de las barreras identificadas, se pone en evidencia aspectos como la falta de una mejor actitud de las personas en la importancia que tiene el conceptos como el orden, el gusto por el detalle y estandarización en lo procesos de mejoramiento continuo \cite{jaca2014learning}, la falta de comunicación, la brecha entre la alta dirección y los empleados, la falta de capacitación y concienciación por la importancia que tiene la MC entre el personal \cite{clegg20105s, farris2009critical, kobayashi2008business, gapp2008implementing, ho19995, ho19985}, entre otros. Sin embargo, cualquier organización que decida iniciar el camino de la MC debe entender que se trata de algo más que intervenir un sistema o un proceso; se trata de generar un cambio cultural que se promueve mediante la particiación de todos los involucrados de una organización \cite{imai1986key, hirano19975s, hirano2009jit}. Sin el soporte de una cultura que haga énfasis en aspectos como el trabajo en equipo, el empoderamiento, la participación y el desarrollo de actitudes hacia la mejora continua no es posible lograr que las acciones de mejora perduren en el tiempo \cite{love1999learning, oakland1995total}.
También es sabido que iniciativas como Kaizen, Justo a Tiempo (JIT) y Lean Manufacturing han surgido desde el mismo corazón de la empresa Toyota en Japón \cite{bhuiyan2006sustainable} y, por tanto, algunos autores han indicado la complejidad que trae la adopción de estas iniciativas por empresas que no tienen una tradición cultural como la que se encuentra en la sociedad japonesa \cite{r2014exploring, yokozawa2010influence, yokozawa2013influence}. En otras palabras, el éxito de las organizaciones japonesas se da particularmente por las condiciones culturales que incluyen un conjunto homogéneo de valores que ponen énfasis en el orden, la limpieza, el gusto por el detalle, el respeto, la disciplina el seguimiento de estándares, así como en la aceptación de la jerarquía y la antigüedad \cite{lawler1994job, cole1979work}. En las sociedades occidentales, con su énfasis en la democracia y los derechos individuales, se presenta toda una escena diferente que no parece encajar adecuadamente con la adopción de este tipo de metodologías tal como se las percibe y aplica en Japón \cite{lawler1994job}.
De acuerdo a lo expuesto, desde el año 2009, un grupo de investigadores de las universidades de Navarra en España y La Sabana en Colombia, han venido trabajado en el desarrollo de un conjunto de programas que hacen parte de los denominados Kaizen Event (KE), concepto ampliamente usado en Estados Unidos y que es considerado como una estrategia para enfrentar la complejidad de adoptar una “filosofía” encaminada a instaurar principios de mejora continua en las organizaciones (Glover 2011). Uno de los KE desarrollados ha sido denominado EWACi (Employee Work Attitudes toward Continuous Improvement por sus siglas en inglés) el cual se trata de una metodología que busca influir de manera positiva en el desarrollo de actitudes en las personas hacia la mejora continua, en especial en lo relacionado con la orientación al orden, gusto por el detalle y seguimiento de estándares. Para el equipo de investigación, uno de los grandes retos ha sido la caracterización del grupo de personas en cuanto su orientación al orden, el gusto por el detalle y al seguimiento de estándares. En otras palabras, la posibilidad de establecer un perfil de las mismas para así poder formular acciones dirigidas a las personas que lo necesitan y de tal manera que favorezca acertivamente el desarrollo de dichas actitudes.
El equipo de investigación reconoce que la persona juega un papel vital en el sostenimiento de las acciones de mejora y que el ser humano, tanto en su interacción individual como grupal, debe ser considerado como parte integral dentro de un sistema técnico y social presente en cualquier tipo de organización (industrial, financiero, social y educativo). Así también, el ser humano se comporta como un proveedor de información, la cual es susceptible de ser analizada y empleada para comprender y actuar sobre dicho sistema. Este análisis implica la toma metódica de información a diferentes niveles (fisiológico, comportamental consciente e inconsciente) y perspectivas (cuantitativa y/o cualitativa). En este sentido, el campo de la biométrica, el cual ha gozado de amplio reconocimiento a lo largo de los últimos años y que ha adquirido nuevos horizontes gracias a la introducción de tecnologías \cite{marcus2013design, renshaw2007eye, horsley2014current}, ofrece un conjunto de posibilidades para ser consideradas en este propósito. Sin embargo, en el ámbito organizacional la gran mayoría de sus apliaciones se han dado para el área del marketing, creando así una rama conocida como Neuromarketing; campo de estudio que consiste en la combinación de las disciplinas de neurociencias y marketing y se basan en el empleo de técnicas de medición que permiten determinar cómo afectan al consumidor los estímulos publicitarios (conscientes o inconscientes) a nivel de memoria, atención y emoción. Dicho de otro modo, el neuromarketing estudia el funcionamiento del cerebro aplicado al ámbito de las decisiones de compra \cite{lee2007neuromarketing}.
En este orden de ideas, el presente proyecto desarrolla una revisón bibliográfica o estado del arte en los temas concernientes a la medición biométrica que puede ser aplicada para establecer un perfil de las personas en su orientación al orden, el gusto por el detalle y al seguimiento de estándares. El proyecto se desarrolla a través de la metodología de Tranfield \cite{Tranfield_2003}, la cual permite hacer una revisión sistemática de la literatura, como medio para la obtención de información necesaria para la construcción de un estado del arte y actualización del cuerpo de conocimiento.
El presente documento mostrará incialmente la pregunta de investigación y la justificación. Posteriormente, se desarrollará en el marco conceptual una breve descripción del programa EWACi y de la metodología Tranfield et al., después se declararán los objetivos propuestos en relación a las preguntas de investigación, para luego proceder a explicar cómo fue el desarrollo la metodología de revisión sistemática y así, mostrar los resultados e hitos importantes del proyecto. Finalmente, las conclusiones acompañadas de una propuesta de investigación futura.
Estado del arte - Medición biométrica y su aplicación en la mejora continua: indicadores, técnicas y equipos
and 3 collaborators
En la actualidad, las organizaciones presentan la necesidad costante que conservar costos bajos, mantener los niveles de calidad, disminuir el desperdicio e incrementar la producción para alcanzar y sostener la competitividad \cite{bhuiyan2006sustainable}. Gran parte de esto puede hacerse a través de la implantación de la Mejora Continua (MC), definida como una cultura que se mantiene a largo plazo, que tiene especialmente en cuenta la eliminación de cualquier tipo de desperdicio en el sistema organizacional y que involucra a todo el personal mediante un trabajo participativo \cite{bhuiyan2006sustainable,liker2004building,womack2010lean,imai1986key}.
La implantación de la MC se puede considerar como un ejercicio dinámico y complejo en donde las organizaciones deben sortear una serie de barreras que impiden su aplicación efectiva \cite{ab2010implementation}, incluso después de haber obtenido resultados exitosos al inicio de un esfuerzo de MC y al momento de tratar de desarrollarlos en otras áreas de la compañía \cite{dale1997sustaining,bateman2002process}. Dentro de las barreras identificadas, se pone en evidencia aspectos como la falta de una mejor actitud de las personas frente a la la importancia que tiene conceptos como el orden, la estandarización y la atención a los detalles \cite{jaca2014learning}, la falta de comunicación, la brecha entre la alta dirección y los empleados, la falta de capacitación y concienciación por la importancia que tiene la MC entre el personal \cite{clegg20105s,farris2009critical,kobayashi2008business,gapp2008implementing,ho19995,ho19985}, entre otros. Sin embargo, cualquier organización que decida iniciar el camino de la MC debe entender que se trata de algo más que intervenir un sistema o un proceso; se trata de generar un cambio cultural que se promueve mediante la particiación de todos los involucrados de una organización \cite{imai1986key,hirano19975s,hirano2009jit}. Sin el soporte de una cultura que haga énfasis en aspectos como el trabajo en equipo, el empoderamiento, la participación y el desarrollo de actitudes hacia la mejora continua no es posible lograr que las acciones de mejora perduren en el tiempo \cite{love1999learning,oakland1995total}.
También es sabido que iniciativas como Kaizen, Justo a Tiempo (JIT) y Lean Manufacturing han surgido desde el mismo corazón de la empresa Toyota en Japón \cite{bhuiyan2006sustainable} y, por tanto, algunos autores han indicado la complejidad que trae la adopción de estas iniciativas por empresas que no tienen una tradición cultural como la que se encuentra en la sociedad japonesa \cite{r2014exploring,yokozawa2010influence,yokozawa2013influence}. En otras palabras, el éxito de las organizaciones japonesas se da particularmente por las condiciones culturales que incluyen un conjunto homogéneo de valores que ponen énfasis en el orden, la limpieza, el respeto, la disciplina el seguimiento de estándares, así como en la aceptación de la jerarquía y la antigüedad \cite{lawler1994job,cole1979work}. En las sociedades occidentales, con su énfasis en la democracia y los derechos individuales, se presenta toda una escena diferente que no parece encajar adecuadamente con la adopción de este tipo de metodologías tal como se las percibe y aplica en Japón \cite{lawler1994job}.
De acuerdo a lo expuesto, desde el año 2009, un grupo de investigadores de las universidades de Navarra en España y La Sabana en Colombia, han venido trabajado en el desarrollo de un conjunto de programas que hacen parte de los denominados Kaizen Event (KE), concepto ampliamente usado en Estados Unidos y que es considerado como una estrategia para enfrentar la complejidad de adoptar una “filosofía” encaminada a instaurar principios de mejora continua en las organizaciones \cite{glover2011critical}. Uno de los KE desarrollados ha sido denominado EWACi (Employee Work Attitudes toward Continuous Improvement por sus siglas en inglés) el cual se trata de una metodología que busca influir de manera positiva en el desarrollo de actitudes en las personas hacia la mejora continua, en especial en lo relacionado con la orientación al orden, el seguimiento de estándares y la atención a los detalles. Para el equipo de investigación, uno de los grandes retos ha sido la caracterización del grupo de personas dentro de la organización en su orientación a los aspectos citados. En otras palabras, la posibilidad de establecer un perfil de las mismas para así poder formular acciones dirigidas a las personas que lo necesitan y de tal manera que favorezca acertivamente el desarrollo de dichas actitudes.
El equipo de investigación reconoce que la persona juega un papel vital en el sostenimiento de las acciones de mejora y que el ser humano, tanto en su interacción individual como grupal, debe ser considerado como parte integral dentro de un sistema técnico y social presente en cualquier tipo de organización (industrial, financiero, social y educativo). Así también, el ser humano se comporta como un proveedor de información, la cual es susceptible de ser analizada y empleada para comprender y actuar sobre dicho sistema. Este análisis implica la toma metódica de información a diferentes niveles (fisiológico, comportamental consciente e inconsciente) y perspectivas (cuantitativa y/o cualitativa). En este sentido, el campo de la biométrica, el cual ha gozado de amplio reconocimiento a lo largo de los últimos años y que ha adquirido nuevos horizontes gracias a la introducción de tecnologías \cite{marcus2013design,renshaw2007eye,horsley2014current}, ofrece un conjunto de posibilidades para ser consideradas en este propósito. Sin embargo, en el ámbito organizacional la gran mayoría de sus apliaciones se han dado para el área del marketing, creando así una rama conocida como Neuromarketing; campo de estudio que consiste en la combinación de las disciplinas de neurociencias y marketing y se basan en el empleo de técnicas de medición que permiten determinar cómo afectan al consumidor los estímulos publicitarios (conscientes o inconscientes) a nivel de memoria, atención y emoción. Dicho de otro modo, el neuromarketing estudia el funcionamiento del cerebro aplicado al ámbito de las decisiones de compra \cite{lee2007neuromarketing}.
En este orden de ideas, el presente artículo presenta una revisón bibliográfica o estado del arte en los temas concernientes a la medición biométrica que puede ser aplicada para establecer un perfil de las personas en su orientación al orden y al seguimiento de estándares. El proyecto se desarrolla a través de la metodología de Tranfield et al., \cite{tranfield2003towards}; metodología que cual permite hacer una revisión sistemática de la literatura, como medio para la obtención de información necesaria para la construcción de un estado del arte y actualización del cuerpo de conocimiento.
El uso de las mediciones biométricas en la industría, es un campo reciente en la investigación, en el cual se busca ciertamente la objetividad e imparcialidad que brinda la tecnología en la creación de perfiles (ref.). El uso de estás técnicas ha sido usado exhaustivamente por el marketing, adaptando para ello una rama específica denominada Neuromarketing \cite{benito2011neuromarketing}, la cual ha impulsado avances en las biométricas con adaptaciones a la medición en industría.
Estás técnicas han gozado de fama debido a su versatilidad, tanto así, que los profesionales ven una oportunidad sin precedentes para mejorar su arsenal persuasivo, pero por el contrario la sociedad lo ve como una amenaza similar a la desatada por James Vicary cuando publicó los resultados de su famoso experimento de 1957 sobre publicidad subliminal \cite{crandall2006invisible}. Aún así, tras estas discusiones, no se ha generado un mayor entendimiento sino bastante desconcierto y desinformación en torno a sus capacidades y aplicaciones reales \cite{benito2011neuromarketing}.
Las consultoras en marketing utilizan tecnologías propias de las neurociencias para sus investigaciones, a menudo combinan esas tecnologías neurocientíficas con otras mediciones biométricas, como puedan ser la medición de la respuesta galvánica de la piel, seguimiento ocular (eye-tracking), medición del ritmo cardiaco o la electromiografía \cite{benito2011neuromarketing}.
9th Annual Imagine Science Film Festival x Authorea
and 1 collaborator
"The Imagine Science Film Festival is a conversation between scientists, filmmakers, and artists to explore the latest scientific advances and theories in unique and thought-provoking ways." - Nate Dorr, Director of Programming
Multiple neural representations of elementary logical connectives - Suppl. Mat.
and 5 collaborators
A defining trait of human cognition is the capacity to form compounds out of simple thoughts. This ability relies on the logical connectives AND, OR and IF. Simple propositions, e.g., ‘There is a fork’ and ‘There is a knife’, can be combined in alternative ways using logical connectives: e.g., ‘There is a fork AND there is a knife’, ‘There is a fork OR there is a knife’, ‘IF there is a fork, there is a knife’. How does the brain represent compounds based on different logical connectives, and how are compounds evaluated in relation to new facts? In the present study, participants had to maintain and evaluate conjunctive (AND), disjunctive (OR) or conditional (IF) compounds while undergoing functional MRI. Our results suggest that, during maintenance, the left posterior inferior frontal gyrus (pIFG, BA44, or Broca’s area) represents the surface form of compounds. During evaluation, the left pIFG switches to processing the full logical meaning of compounds, and two additional areas are recruited: the left anterior inferior frontal gyrus (aIFG, BA47) and the left intraparietal sulcus (IPS, BA40). The aIFG shows a pattern of activation similar to pIFG, and compatible with processing the full logical meaning of compounds, whereas activations in IPS differ with alternative interpretations of conditionals: logical vs conjunctive. These results uncover the functions of a basic cortical network underlying human compositional thought, and provide a shared neural foundation for the cognitive science of language and reasoning.
Computer Security
The NIST Computer Security Handbook define seguridad computacional como sigue:
Seguridad Computacional: La protección conferida a un sistema de información automatizado con el fin de alcanzar los objetivos aplicables de la preservación de la integridad, disponibilidad y confidencialidad de la información de los recursos del sistema (incluye hardware, software, firmware, información/datos y telecomunicaciones).
Esta definición introduce tres objetivos clave que son el «corazón» de la seguridad computacional:
Confidencialidad: Este término cubre dos conceptos relacionados:
Confidencialidad de datos: Asegura que la información privada o confidencial no esté disponible ni sea divulgada a personas no autorizadas.
Privacidad: Asegura que los individuos que tengan control o influencia sobre la información pudean recibir y almacenar por quién y para quién debe ser revelada.
Integridad: Este término cubre dos conceptos relacionados:
Integridad de datos: Asegura que la información y programas sean cambiados solo de una manera específica y autorizada.
Integridad del sistema: Asegura que un sistema realice su función prevista de una manera irreprochable, libre de manipulación no autorizada intencionada o no intencionada del sistema.
Disponibilidad: Asegura que los sistemas funcionan con prontitud y el servicio no se le niega a los usuarios autorizados.
Estos tres conceptos forman parte de lo que es referenciado como la triada CIA. Los tres conceptos involucran los objetivos fundamentales de seguridad para datos, información y servicios computacionales. Por ejemplo el estándar NIST FIPS 199 los lista y los menciona. FIPS 199 provee una caracterización útil de estos tres objetivos en términos de requisitos y la definición de una pérdida de seguridad en cada categoría:
Confidencialidad: La preservación de las restricciones autorizadas al acceso de información y divulgación, que incluye medios para la protección de la privacidad personal e información del propietario. Una pérdida de confidencialidad es la divulgación no autorizada de información.
Integridad: Protección contra la modificación de información inadecuada o destrucción, incluida la garantía de no repudio de la información y la autenticidad. Una pérdida de la integridad es la modificación o destrucción de información no autorizada.
Disponibilidad: Garantizar el acceso oportuno y confiable y uso de la información. Una pérdida de disponibilidad es la interrupción del acceso o uso de información o un sistema de información.
Aunque el uso de la tríada de la CIA para definir los objetivos de seguridad está bien establecido, algunos en el campo de la seguridad creen que se necesitan conceptos adicionales para presentar una imagen completa. Dos de los más comúnmente mencionados son los siguientes:
Autenticidad: La propiedad de ser genuina y ser capaz de ser verificada y de confianza; confianza en la validez de una transmisión, un mensaje, o remitente del mensaje. Esto significa verificar que los usuarios son quienes dicen ser y que cada entrada de llegar al sistema provenía de una fuente de confianza.
Responsabilidad Accountability:El objetivo de seguridad que genera la necesidad de acciones de una entidad que se debe rastrear de forma única a esa entidad. Esto apoya el no repudio, la disuasión, el aislamiento de fallos, la detección y prevención de intrusiones, y después de la acción de recuperación y la acción legal. Dado que los sistemas verdaderamente seguras no tienen todavía una meta alcanzable, hay que ser capaz de trazar una violación de seguridad a una parte responsable. Los sistemas deben llevar registros de sus actividades para permitir el análisis forenses posteriores de rastrear las brechas de seguridad o para ayudar en las disputas de transacción.
La Seguridad Computacional es facinante y compleja. Algunas razones son las siguientes:
La seguridad computacional no es tan sencillo como podría parecer al principio. Los requisitos parecen ser sencillos; de hecho, la mayoría de los principales requisitos para los servicios de seguridad se puede dar explican por sí mismos en etiquetas de una sola palabra: confidencialidad, autenticación, no rechazo, integridad. Sin embargo, los mecanismos utilizados para cumplir con esos requisitos pueden ser bastante complejos, y la comprensión de ellos pueden implicar un razonamiento bastante sutil.
En particular, el desarrollo de un mecanismo de seguridad o algoritmo, hay que tener siempre en cuenta los posibles ataques a los elementos de seguridad.
Debido al punto 2, los procedimientos utilizados para proporcionar servicios particulares suelen ser contrario a la intuición. Por lo general, un mecanismo de seguridad es complejo, y no es obvio a partir de la declaración de un requisito particular que tales medidas son necesarias elaboradas. Es sólo cuando se consideran los diversos aspectos de la amenaza de que los mecanismos de seguridad elaborados tienen sentido.
Teniendo varios mecanismos de seguridad diseñados, es necesario decidir dónde utilizarlos. Esto es cierto tanto en términos de la colocación física (por ejemplo, en qué puntos de una red son ciertos mecanismos de seguridad necesarios), y en un sentido lógico [por ejemplo, en qué capa o capas de una arquitectura como TCP / IP (Transmission Control Protocol / Internet Protocol) deben ser colocados los mecanismos].
Los mecanismos de seguridad suelen incluir más de un algoritmo o protocolo particular. También requieren que los participantes estén en posesión de alguna información secreta (por ejemplo, una clave de cifrado), lo que plantea cuestiones acerca de la creación, distribución y protección de la información secreta. También puede haber una dependencia de los protocolos de comunicación cuyo comportamiento puede complicar la tarea de desarrollar el mecanismo de seguridad. Por ejemplo, si el buen funcionamiento del mecanismo de seguridad requiere establecer límites de tiempo en el tiempo de tránsito de un mensaje del emisor al receptor, entonces cualquier protocolo o red que introduce variables, los retrasos imprevisibles pueden dejar a dichos plazos sin sentido.
La seguridad computacional es esencialmente una batalla de ingenio entre un autor que trata de encontrar agujeros y el diseñador o administrador que intenta cerrarlas. La gran ventaja de que el atacante tiene es que él o ella sólo tiene que encontrar una sola debilidad mientras que el diseñador debe encontrar y eliminar todas las debilidades para lograr una seguridad perfecta.
Hay una tendencia natural por parte de los usuarios y los administradores de los sistemas de percibir pocos beneficios de la inversión en seguridad hasta que se produzca un fallo en la seguridad.
La seguridad requiere un regular, aunque constante, monitoreo, y esto es difícil a corto plazo hoy en día, sobrecarga el entorno.
La seguridad es todavía demasiado a menudo una idea de último momento a ser incorporados en un sistema después de que el diseño está completo en lugar de ser una parte integral del proceso de diseño.
Muchos usuarios e incluso administradores de seguridad ven a la seguridad como un gran impedimento para el funcionamiento eficiente y de fácil uso de un sistema informático.
Ahora introducimos alguna terminología que será útil en todo el libro, apoyándose en el RFC 4949, Internet Security Glossary.
Adversario (Agente de Amenaza) Adversary (threat agent): Una entidad que ataca, o es una amenaza, a un sistema.
Ataque Attack: Un asalto a la seguridad del sistema que se deriva de una amenaza inteligente; es decir, un acto inteligente que es un intento deliberado (especialmente en el sentido de un método o técnica) para evadir los servicios de seguridad y violar la política de seguridad de un sistema.
Contramedida Countermeasure: Una acción, dispositivo, procedimiento o técnica que reduce una amenaza, una vulnerabilidad, o un ataque al eliminar o prevenirla, reduciendo al mínimo el daño que puede causar, o mediante el descubrimiento y la presentación de informes para que las medidas correctivas se pueden tomar.
Riesgo Risk: Una expectativa de pérdida expresa como la probabilidad de que una amenaza en particular será aprovechar una vulnerabilidad particular, con un resultado perjudicial en particular.
Políticas de Seguridad Security Policy: Un conjunto de normas y prácticas que especifican o regulan cómo un sistema u organización proporciona servicios de seguridad para proteger los recursos del sistema sensibles y críticos.
Recursos del Sistema (bienes) System Resource (Asset): Los datos contenidos en un sistema de información; o un servicio proporcionado por un sistema; o una capacidad de sistema, tales como la potencia de procesamiento o del ancho de banda de comunicación; o un elemento del equipo del sistema (es decir, un componente del sistema - hardware, firmware, software o documentación); o una instalación que alberga las operaciones y equipos del sistema.
Amenaza Threat: Un potencial de violación de la seguridad, que existe cuando hay una circunstancia, la capacidad, la acción o evento, que podría violar la seguridad y causar daño. Es decir, una amenaza es un posible peligro que podría aprovechar una vulnerabilidad.
Vulnerabilidad Vulnerability: Un defecto o debilidad en un diseño de sistemas, ejecución o funcionamiento y gestión que podría ser aprovechada para violar la política de seguridad del sistema.
6 Publisher Policies Antithetical to Research
and 3 collaborators
Análisis y Aplicación de Sistema de Nivelación Web para el Sistema de Educación Media en Chile
and 2 collaborators
Information and communications technology (ICT) has arrived and impacted on different aspect of the society. Is know that Chile have Problems with the education. On the basis of the two last points we will propose an ICT platform, in the first place we want to show the educational and ICT related methodologies, new platforms and to propose a new one that have a focus on the leveling of the areas that matter to the chilean students. The education is full of factors that can be unrecognizable. That’s why we can not overwrite the education, we want to power it from the access to itself
Resumen
Las Tecnologías de la Información y la Comunicación (TIC) han llegado y han impactado diversos ámbitos de la sociedad. Por otro lado en Chie existen diversos problemas con la cuestionada educación. En base a los dos antecedentes anteriores se propone potenciar la educación con TIC, primero mostrando corrientes educativas relacionadas, plataformas en actuales y una nueva propuesta de plataforma basada en la nivelación escolar en aquellas áreas de interés para los estudiantes Chilenos. La Educación está llena de factores, los cuales pueden llegar a ser incluso irreconocibles por lo que no se propone mejorar el sistema si no que potenciarlo desde el acceso a los estudiantes.
deb-bose-MATH5895-assign1
As parameters for Normal distribution(F0) are not specified, we need to perform a composite GOF test such as Lillefor’s test. Using ks.test, the Dn statistic is $0.98536 > \frac{0.886}{\sqrt{n=272}}$. Hence we reject the H0 : F = F0 or - Normal distribution is NOT a reliable model for the distribution of the eruption time? l
Using standard Kolmogorov-Smirnov test, the confidence band of the $\hat{F_n(x)}$ is given by -
\begin{align} \boxed{[l(x), u(x)] = \Big[\hat{F_n(x)} \pm \frac{k_{1-\alpha}}{\sqrt{n}}\Big]} \end{align}
Using k0.95 = 1.358 and n = 272,
\begin{align} [l(x), u(x)] = \Big[\hat{F_n(x)} \pm 0.0823\Big] \end{align}
PhD Proposal
The presence of induced seismicity at geothermal power generation sites has been recognized for decades \citep{Ward_1972, Allis_1982}. Commonly these events are caused by temperature and pressure change within a reservoir as a result of fluid injection, although seismicity has also been attributed to reservoir volume changes and changes in fluid chemistry \citep{Allis_1982, Sherburn_2015}. Most of this seismicity is of magnitude <3.0, termed microseismicity, and normally presents limited hazard to local population and infrastructure, although the degree to which humans are affected varies considerably from location to location \citep{cladouhos2010injection}. Importantly, microseismicity can provide very useful information about the movement of fluid and pressure within the reservoir as well as size and distribution of the reservoir fracture system and therefore has implications for geothermal resource management. However, the small magnitude of the events, high levels of anthropogenic noise and, potentially, highly attenuating geology often make detecting such events difficult. One way to address these difficulties is to use a matched filter detection technique.
Matched filter earthquake detection uses waveform cross-correlation between continuous seismic data and known earthquake recordings to identify additional events in a seismic catalogue. Correlation-based detection offers improved performance over traditional, amplitude-based techniques due to its ability to detect signals in noisy data and when multiple, repetitive events are closely spaced in time \citep{Gibbons_2006}. This significantly increases the number of events detected without increasing the rate of false detections. These advantages make matched filter detection ideal for monitoring microseismicity in areas of geothermal power generation, which are characterized by numerous noise sources and the possibility for dense clusters of small-magnitude, induced seismic events. The purpose of this study is to investigate the performance of matched filtering on a four-year dataset for Ngatamariki and Rotokawa geothermal fields on the north island of New Zealand, focusing on increasing the number of detections triggered using standard methods and assessing what any additional detections might contribute to our knowledge of the processes at play within the reservoirs. The specific objectives are as follows:
Objective 1: Perform matched filter earthquake detection on the full 2012-2015 Mercury seismic dataset
Compare rates of matched filter detection with Mercury power plant operations, especially injection
Locate and double-difference relocate detected events
Characterize location and extent of microseismicity in the context of well locations and rates of injection with time. How do the locations relate to what we know about fluid migration within the reservoirs?
Objective 2: Determine source parameters, including magnitude and focal mechanisms, of matched filter detections
Relate source parameters to reservoir processes (i.e. increased fluid pressure, thermal contraction, subsidence)
Objective 3: Perform subspace earthquake detection on the full 2012-2015 Mercury seismic dataset
Compare subspace detection results with results of matched filter detection and assess the performance of both
The Grackle project: turning a research code into a software package
I will present the Grackle project: a library for chemistry and cooling in astrophysical simulations. As a library, Grackle provides functionality needed by almost all astrophysical simulation codes with an API that is easy to implement. As an open-source project, Grackle provides a resource to the astronomical community where new models and data can be easily shared. I will discuss some of the key features of Grackle, such as its primary functions and Python interface, as well as how research software engineers can grow a project like this from a piece of single-use research code into a package with community development, user support, documentation, and testing.
Olymp
and 3 collaborators
Photon counting imaging and centroiding with an electron-bombarded CCD using single molecule localisation software
and 2 collaborators
Photon event centroiding in photon counting imaging and single-molecule localisation in super-resolution fluorescence microscopy share many traits. Although photon event centroiding has traditionally been performed with simple single-iteration algorithms, we recently reported that iterative fitting algorithms originally developed for single-molecule localisation fluorescence microscopy work very well when applied to centroiding photon events imaged with an MCP-intensified CMOS camera. Here, we have applied these algorithms for centroiding of photon events from an electron-bombarded CCD (EBCCD). We find that centroiding algorithms based on iterative fitting of the photon events yield excellent results and allow fitting of overlapping photon events, a feature not reported before and an important aspect to facilitate an increased count rate and shorter acquisition times.
Keywords: Photon counting imaging, single-molecule localisation, electron-bombarded CCD
OCIS codes: (040.3780) Detectors: Low light level, (030.5260) Coherence and statistical optics: Photon counting, (100.6640) Image processing: Superresolution, (110.0180) Imaging systems: Microscopy, (170.2520) Medical optics and biotechnology: Fluorescence microscopy
Hydrodynamic radii of ranibizumab, aflibercept and bevacizumab measured by time-resolved fluorescence anisotropy
and 4 collaborators
Purpose: To measure the hydrodynamic radii of intravitreal anti-VEGF drugs ranibizumab, aflibercept and bevacizumab with μs time-resolved fluorescence anisotropy.
Methods: Ruthenium-based dye Ru(bpy)2(mcbpy-O-Su-ester)(PF6)2, whose lifetime of several hundred nanoseconds is comparable to the rotational correlation time of these drugs in buffer, was used as a label. The hydrodynamic radii were calculated from the rotational correlation times of the Ru(bpy)2(mcbpy-O-Su-ester)(PF6)2-labelled drugs obtained with time-resolved fluorescence anisotropy measurements in buffer/glycerol solutions of varying viscosity.
Results: The measured radii of 2.76±0.04 nm for ranibizumab, 3.70±0.03 nm for aflibercept and 4.58±0.01 nm for bevacizumab agree with calculations based on molecular weight and other experimental measurements.
Conclusions: Time-resolved fluorescence anisotropy is a relatively simple and straightforward method that allows experimental measurement of hydrodynamic radius of individual proteins, and is superior to theoretical calculations which cannot give the required accuracy for a particular protein.
Keywords: Hydrodynamic radius, fluorescence, phosphorescence, time-resolved anisotropy, rotational diffusion
The First Distance Constraint on the Renegade High Velocity Cloud Complex WD
and 5 collaborators
We present medium-resolution, near-ultraviolet VLT/FLAMES observations of the star USNO-A0600-15865535. We adapt a standard method of stellar typing to our measurement of the shape of the Balmer ϵ absorption line to demonstrate that USNO-A0600-15865535 is a blue horizontal branch star, residing in the lower stellar halo at a distance of 4.4 kpc from the Sun. We measure the H & K lines of singly-ionized calcium and find two isolated velocity components, one originating in the disk, and one associated with high-velocity cloud complex WD. This detection demonstrated that complex WD is closer than 4.4 kpc and is the first distance constraint on the +100 km/s Galactic complex of clouds. We find that Complex WD is not in corotation with the Galactic disk as has been assumed for decades. We examine a number of scenarios, and find that the most likely is that Complex WD was ejected from the solar neighborhood and is only a few kpc from the Sun.
Tuberculosis Template
Desafios associados à Composição de Processos de Software
#Introdução
A indústria de software no mundo é um mercado de grande volume financeiro. Considerando apenas os 10 maiores mercados de software do mundo, essa indústria movimenta quase 800 bilhões de reais por ano. No entanto, diversos estudos demonstram que boa parte desses recursos são de alguma forma desperdiçados ou subutilizados. Por exemplo, perdas são associadas a atrasos superiores a 50% de não atendimento, a 25% de projetos que são interrompidos, módulos de um mesmo sistema que não funcionam integrados entre si, funcionalidades inadequadas que não atendem às expectativas, e grande volume de retrabalho em projetos de software \cite{Cerpa_2009}. Existe portanto, uma necessidade de melhoria na qualidade e competitividade dos produtos e serviços prestados pelas empresas de software.
Uma das estratégias para atingir esses objetivos é através da Gestão e Melhoria dos Processos de Software (SPI - Software Process Improvement) \cite{sommerville2004} \cite{Dumas_2013} \cite{Kelly_1999}. As organizações investem na melhoria de seus processos de software com a expectativa de que isso resultará na melhoria da qualidade do software que esses processos produzem \cite{Unterkalmsteiner_2012}. E, de fato, diversos estudos demonstram que a melhoria dos modelos e padrões de processos de desenvolvimento de software (PDS) podem melhorar a qualidade do software e a produtividade da organização \cite{Buttler_1995} \cite{Yamamura_1999} \cite{Pitterman_2000} \cite{Gibson_2006} \cite{Nasir_2008} \cite{Hani_2009}. Um programa SPI tem como base uma disciplina conhecida como Gerenciamento de Processos de Negócio (BPM). Normalmente a implantação eficaz da Gestão de Processo exige: (a) a formalização dos Processos de Software em uma Linguagem de Modelagem de Processos de Software (LMPS) e (b) a gestão dos Processos apoiada por um Sistema para Gestão de Processos (BPMS) \cite{Kelly_1999}.
No entanto, existe uma dificuldade por parte das organizações em implantar e manter a gestão de seus processos \cite{Santos_2010} \cite{Colenci_2011} \cite{tcu_2010} \cite{tcu_2012}. Parte dessa dificuldade está relacionada à complexidade dos Processos de Software. Uma consequência negativa das iniciativas de melhoria de processo é que eles tendem a aumentar a complexidade dos Processos de Software. Ou seja, os PDSs costumam tornar-se cada vez mais complexos: maior números de atividades, maior quantidade de ligações entre as atividades, maior número de tomadas de decisões, interações mais complexas entre sistemas e pessoas, etc \cite{Istoan_2012}. Nesse contexto, técnicas de Reutilização de Processos - como Adaptação e Composição de Processos - podem ser utilizadas para minimizar os problemas relacionados a manter processos complexos \cite{Rong_2014} \cite{Rong_2014b}.
Apesar disso, a Reutilização de Processos ainda é bastante difícil de ser implantada na indústria de software \cite{koschmider2014}. Os autores apresentam um estudo detalhado de como a indústria e a acadêmia estão tratando a Reutilização de Processos de Software. Sob o ponto de vista acadêmico, apesar de o tema de Reutilização ser bastante discutido, existem poucas contribuições sobre Reutilização de Processos de Software quando comparado ao volume de produções acadêmicas sobre Reutilização de Software. Já sob a perspectiva da indústria, a principal reclamação está relacionada a falta de recursos das ferramentas e notações para executar operações necessárias para a Reutilização de Processos. As operações relacionadas à Reutilização de Processos que estão sendo consideradas são: Adaptação de Processos, Composição de Processos e Instanciação de Processos.
Esse texto tem como objetivo trazer uma discussão inicial sobre alguns aspectos relacionados à operação de Composição de Processos de Software. Serão apresentados os principais desafios relacionados a essa operação e algumas considerações sobre o tema serão discutidas. Além disso, serão apresentadas algumas propostas da literatura atual para Composição de Processos de Software e analisar como elas se comportam diante dos desafios identificados.
Water flow through unsaturated soils: variational formulation of the Richards - Buckingham equation
\begin{align} \theta(\psi) = \theta_{r} + (\theta_{s} - \theta_{r}) (1+(a_{VG} \psi)^{n_{VG}})^{-m_{VG}} \\ \end{align}
\begin{align} k(\psi) = k_{sat} \frac {(1-((a_{VG} \psi)^{n_{VG}m_{VG}}) (1+(a_{VG} \psi)^{n_{VG}})^{-m_{VG}}))^2} { (1+(a_{VG} \psi)^{n_{VG}})^{m_{VG}l_{VG}}} \end{align}
Mass conservation law.
\begin{align} \frac{\partial \theta}{\partial t} = - \nabla \cdot \vec{q} \\ \end{align}
Darcy law.
\begin{align} \vec{q} = k \left( h, P \right) \nabla H \\ \end{align}
Where h is the pore pressure, P is the position in 3D space and H is the total head.
\begin{align} P = (x, y, z)\\ h= - \psi \\ \nabla H = \nabla h + \nabla z \\ \end{align}
The partial differential equation can be written as:
\begin{align} \frac{\partial \theta}{\partial t} = -\nabla \cdot k \left( h, P \right) \nabla H + A, \\ \end{align}
where A is a source/sink term.
Integrate on both sides and multiply by the test function v.
\begin{align} \int_{\Omega}\frac{\partial \theta}{\partial t} v\,d\Omega = -\int_{\Omega}\nabla \cdot k \left( h, P \right) \nabla H v\,d\Omega + \int_{\Omega}A v\,d\Omega \\ \end{align}
Integrate by parts.
\begin{align} \int_{\Omega}\nabla \cdot k \left( h, P \right) \nabla H v\,d\Omega = -\int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega + \\ \int_{\Omega}\nabla \cdot \left( k \left( h, P \right) \nabla H v\right) \,d\Omega \\ \end{align}
Apply Gauss divergence theorem.
\begin{align} \int_{\Omega}\nabla \cdot k \left( h, P \right) \nabla H v\,d\Omega = -\int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega + \int_{\Gamma_{N} \cup \Gamma_{D}} k \left( h, P \right) \nabla H v n\,d\Gamma \\ \int_{\Omega}\nabla \cdot k \left( h, P \right) \nabla H v\,d\Omega = -\int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega + \int_{\Gamma_{N}} k \left( h, P \right) \nabla H v n\,d\Gamma + \int_{\Gamma_{D}} k \left( h, P \right) \nabla H v n\,d\Gamma \end{align}
Because v = 0 on ΓD.
\begin{align} \int_{\Omega}\nabla \cdot k \left( h, P \right) \nabla H v\,d\Omega = -\int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega + \int_{\Gamma_{N}} k \left( h, P \right) \nabla H v n\,d\Gamma \\ \end{align}
Put in the initial integral.
\begin{align} \int_{\Omega} \frac{\partial \theta}{\partial t} v\,d\Omega = \int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega - \int_{\Gamma_{N}} \left( k \left( h, P \right) \nabla H n \right) v\,d\Gamma + \int_{\Omega}A v\,d\Omega \\ \end{align}
θ(h) is a constitutive relationship. The weak formulation can thus be written on a h basis.
\begin{align} \int_{\Omega} \frac{\partial \theta}{\partial t} \times \frac{\partial h}{\partial h} v\,d\Omega = \int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega - \int_{\Gamma_{N}} \left( k \left( h, P \right) \nabla H n \right) v\,d\Gamma + \int_{\Omega}A v\,d\Omega \\ \\ \frac{\partial \theta}{\partial h} \int_{\Omega} \frac{\partial h}{\partial t} v\,d\Omega = \int_{\Omega} k \left( h, P \right) \nabla H \nabla v\,d\Omega - \int_{\Gamma_{N}} \left( k \left( h, P \right) \nabla H n \right) v\,d\Gamma + \int_{\Omega}A v\,d\Omega \\ \end{align}
Integration by parts.
\begin{align} \int_{\Omega} \left(\nabla \cdot u \right) v\,d\Omega = -\int_{\Omega} u \nabla v\,d\Omega + \int_{\Omega} \nabla \cdot \left( u v \right) n\,d\Omega \\ \end{align}
Gauss divergence theorem.
\begin{align} \int_{\Omega} \nabla \cdot F\, d\Omega = \int_{\partial \Omega = \Gamma_{N} \cup \Gamma_{D}} F \cdot n\, d\Gamma \end{align}
The problem in steady-state with no Neumann boundary conditions can be defined in Sfepy.