เมนูหน้าเว็บ

วันศุกร์ที่ 7 พฤศจิกายน พ.ศ. 2557

ถายทดสด

https://plus.google.com/hangouts/_/g2vbghrbv4klsmqokra6yewqaqa

New way to make batteries safer

Coating prevents electrical current from damaging the digestive tract after battery ingestion.

Every year, nearly 4,000 children go to emergency rooms after swallowing button batteries — the flat, round batteries that power toys, hearing aids, calculators, and many other devices. Ingesting these batteries has severe consequences, including burns that permanently damage the esophagus, tears in the digestive tract, and in some cases, even death.
To help prevent such injuries, researchers at MIT, Brigham and Women’s Hospital, and Massachusetts General Hospital have devised a new way to coat batteries with a special material that prevents them from conducting electricity after being swallowed. In animal tests, they found that such batteries did not damage the gastrointestinal (GI) tract at all.
“We are all very pleased that our studies have shown that these new batteries we created have the potential to greatly improve safety due to accidental ingestion for the thousands of patients every year who inadvertently swallow electric components in toys or other entities,” says Robert Langer, the David H. Koch Institute Professor at MIT and a member of MIT’s Koch Institute for Integrative Cancer Research, Institute for Medical Engineering and Science (IMES), and Department of Chemical Engineering.
Langer and Jeffrey Karp, an associate professor of medicine at Harvard Medical School and Brigham and Women’s Hospital, are the senior authors of a paper describing the new battery coatings in this week’s edition of the Proceedings of the National Academy of Sciences. The paper’s lead authors are Bryan Laulicht, a former IMES postdoc, and Giovanni Traverso, a research fellow at the Koch Institute and a gastroenterologist at MGH.
Small batteries, big danger
About 5 billion button batteries are produced every year, and these batteries have become more and more powerful, making them even more dangerous if swallowed. In the United States, recent legislation has mandated warning labels on packages, and some toys are required to have battery housings that can only be opened with a screwdriver. However, there have been no technological innovations to make the batteries themselves safer, Karp says.
When batteries are swallowed, they start interacting with water or saliva, creating an electric current that produces hydroxide, a caustic ion that damages tissue. This can cause serious injury within just a couple of hours, especially if parents don’t realize right away that a child has swallowed a battery.
“Disc batteries in the esophagus require [emergency] endoscopic removal,” Traverso says. “This represents a gastrointestinal emergency, given that tissue damage starts as soon as the battery is in contact with the tissue, generating an electric current [and] leading to a chemical burn.”
The research team began thinking about ways to alter batteries so they would not generate a current inside the human body but would still be able to power a device. They knew that when batteries are inside their housing, they experience a gentle pressure. To take advantage of this, they decided to coat the batteries with a material that would allow them to conduct when under pressure, but would act as an insulator when the batteries are not being compressed.
Quantum tunneling composite (QTC), an off-the-shelf material commonly used in computer keyboards and touch screens, fit the bill perfectly. QTC is a rubberlike material, usually made of silicone, embedded with metal particles. Under normal circumstances, these particles are too far apart to conduct an electric current. However, when squeezed, the particles come closer together and start conducting. This allows QTC to switch from an insulator to a conductor, depending on how much pressure it is under.
To verify that this coating would protect against tissue damage, the researchers first calculated how much pressure the battery would experience inside the digestive tract, where movements of the tract, known as peristalsis, help move food along. They calculated that even under the highest possible forces, found in patients with a rare disorder called “nutcracker esophagus,” the QTC-coated batteries would not conduct.
“You want to know what’s the maximum force that could possibly be applied, and you want to make sure the batteries will conduct only above that threshold,” Laulicht says. “We felt that once we were well above those levels, these coatings would pass through the GI tract unchanged.”
After those calculations were done, the researchers monitored the coated batteries in the esophagus of a pig, and found no signs of damage.
“A relatively simple solution”
Because QTC is relatively inexpensive and already used in other consumer products, the researchers believe battery companies could implement this type of coating fairly easily. They are now working on developing a scalable method for manufacturing coated batteries and seeking companies that would be interesting in adopting them.
“We were really interested in trying to impose design criteria that would allow us to have an accelerated path to get this out into society and reduce injuries,” Karp says. “We think this is a relatively simple solution that should be easy to scale, won’t add significant cost, and can address one of the biggest problems associated with ingestion of these batteries.”
Also, because the coating is waterproof, the researchers believe it could be used to make batteries weather-resistant and more suitable for outdoor use. They also plan to test the coating on other types of batteries, including lithium batteries.
Edith Mathiowitz, a professor of medical science at Brown University who was not involved in the research, says she believes this approach is a “brilliant idea” that offers an easy fix for the potential dangers of battery ingestion.
“What I like about it is that it’s a simple idea you could implement very easily. It’s not something that requires a big new manufacturing facility,” she says. “And, it could be useful eventually in any type of size of battery.”
The research was funded by the National Institutes of Health.
 

วันพฤหัสบดีที่ 6 พฤศจิกายน พ.ศ. 2557

Can you out-race a computer?

Can you out-race a computer?

Deep-learning algorithm can weigh up a neighborhood better than humans.


Human beings have a remarkable ability to make inferences based on their surroundings. Is this area safe? Where might I find a parking spot? Am I more likely to get to a gas station by taking a left or a right at this stoplight?
Such decisions require us to look beyond our “visual scene” and weigh an exceedingly complex set of understandings and real-time judgments. This begs the question: Can we teach computers to “see” in the same way? And once we teach them, can they do it better than we can?
The answers are “yes” and “sometimes,” according to research out of MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL). Researchers have developed an algorithm that can look at a pair of photos and outperform humans in determining things like which scene has a higher crime rate, or is closer to a McDonald's restaurant.
An online demo puts you in the middle of a Google Street View with four directional options and challenges you to navigate to the nearest McDonald's in the fewest possible steps.
While humans are generally better at this specific task than the algorithm, the researchers found that the computer consistently outperformed humans at a variation of the task in which users are shown two photos and asked which scene is closer to a McDonald's.
To create the algorithm, the team — which included PhD students Aditya Khosla, Byoungkwon An, and Joseph Lim, as well as CSAIL principal investigator Antonio Torralba — trained the computer on a set of 8 million Google images from eight major U.S. cities that were embedded with GPS data on crime rates and McDonald's locations. They then used deep-learning techniques to help the program teach itself how different qualities of the photos correlate. For example, the algorithm independently discovered that some things you often find near McDonald's franchises include taxis, police vans, and prisons. (Things you don’t find: cliffs, suspension bridges, and sandbars.)
“These sorts of algorithms have been applied to all sorts of content, like inferring the memorability of faces from headshots,” said Khosla. “But before this, there hadn’t really been research that’s taken such a large set of photos and used it to predict qualities of the specific locations the photos represent.”
The researchers presented a paper about the work at the IEEE International Conference on Computer Vision and Pattern Recognition (CVPR) this summer.
While the project was mostly intended as proof that computer algorithms are capable of advanced scene understanding, Khosla has brainstormed potential uses ranging from a navigation app that avoids high-crime areas, to a tool that could help McDonald's determine future franchise locations.
                                                                                             
Khosla previously helped develop an algorithm that can predict a photo’s popularity.
 

New frontier in error-correcting codes

New frontier in error-correcting codes

Coding scheme for interactive communication is the first to near optimality on three classical measures.

Error-correcting codes are one of the glories of the information age: They’re what guarantee the flawless transmission of digital information over the airwaves or through copper wire, even in the presence of the corrupting influences that engineers call “noise.”
But classical error-correcting codes work best with large chunks of data: The bigger the chunk, the higher the rate at which it can be transmitted error-free. In the Internet age, however, distributed computing is becoming more and more common, with devices repeatedly exchanging small chunks of data over long periods of time.
So for the last 20 years, researchers have been investigating interactive-coding schemes, which address the problem of long sequences of short exchanges. Like classical error-correcting codes, interactive codes are evaluated according to three criteria: How much noise can they tolerate? What’s the maximum transmission rate they afford? And how time-consuming are the encoding and decoding processes?
At the IEEE Symposium on Foundations of Computer Science this month, MIT graduate students past and present will describe the first interactive coding scheme to approach the optimum on all three measures.
“Previous to this work, it was known how to get two out of three of these things to be optimal,” says Mohsen Ghaffari, a graduate student in electrical engineering and computer science and one of the paper’s two co-authors. “This paper achieves all three of them.”
Vicious noise
Moreover, where Claude Shannon’s groundbreaking 1948 analysis of error-correcting codes considered the case of random noise, in which every bit of transmitted data has the same chance of being corrupted, Ghaffari and his collaborator — Bernhard Haeupler, who did his graduate work at MIT and is now an assistant professor at Carnegie Mellon University — consider the more stringent case of “adversarial noise,” in which an antagonist is trying to interfere with transmission in the most disruptive way possible.
“We don’t know what type of random noise will be the one that actually captures reality,” Ghaffari explains. “If we knew the best one, we would just use that. But generally, we don’t know. So you try to generate a coding that is as general as possible.” A coding scheme that could thwart an active adversary would also thwart any type of random noise.
Error-correcting codes — both classical and interactive — work by adding some extra information to the message to be transmitted. They might, for instance, tack on some bits that describe arithmetic relationships between the message bits. Both the message bits and the extra bits are liable to corruption, so decoding a message — extracting the true sequence of message bits from the sequence that arrives at the receiver — is usually a process of iterating back and forth between the message bits and the extra bits, trying to iron out discrepancies.
In interactive communication, the maximum tolerable error rate is one-fourth: If the adversary can corrupt more than a quarter of the bits sent, perfectly reliable communication is impossible. Some prior interactive-coding schemes, Ghaffari explains, could handle that error rate without requiring too many extra bits. But the decoding process was prohibitively complex.
Making a list
To keep the complexity down, Ghaffari and Haeupler adopted a technique called list decoding. Rather than iterating back and forth between message bits and extra bits until the single most probable interpretation emerges, their algorithm iterates just long enough to create a list of likely candidates. At the end of their mutual computation, each of the interacting devices may have a list with hundreds of entries.
But each device, while it has only imperfect knowledge of the messages sent by the other, has perfect knowledge of the messages it sent. So if, at the computation’s end, the devices simply exchange lists, each has enough additional information to zero in on the optimal decoding.
The maximum tolerable error rate for an interactive-coding scheme — one-fourth — is a theoretical result. The minimum length of an encoded message and the minimum decoding complexity, on the other hand, are surmises based on observation.
But Ghaffari and Haeupler’s decoding algorithm is nearly linear, meaning that its execution time is roughly proportional to the length of the messages exchanged.
“It is optimal in the sense that it is linear,” says Mark Braverman, an assistant professor of computer science at Princeton University who has also worked on interactive coding. “That’s an important benchmark.”
But linear relationships are still defined by constants: y = x is a linear relationship, but so is y = 1,000,000,000x. A linear algorithm that takes an extra second of computation for each additional bit of data it considers isn’t as good as a linear algorithm that takes an extra microsecond.
“We still need to worry a little bit about constants,” Braverman says. “But before you can worry about constants, you have to know that there is a constant-rate scheme. This is very nice progress and a prerequisite to asking those next questions.”
 

MIT computer scientists can predict the price of Bitcoin

MIT computer scientists can predict the price of Bitcoin

CSAIL/LIDS team's algorithm doubles initial investment in under two months. 


Scientists have crunched data to predict crime, hospital visits, and government uprisings — so why not the price of Bitcoin?
A researcher at MIT’s Computer Science and Artificial Intelligence Laboratory and the Laboratory for Information and Decision Systems recently developed a machine-learning algorithm that can predict the price of the infamously volatile cryptocurrency Bitcoin, allowing his team to nearly double its investment over a period of 50 days.
Earlier this year, principal investigator Devavrat Shah and recent graduate Kang Zhang collected price data from all major Bitcoin exchanges, every second for five months, accumulating more than 200 million data points.
Using a technique called “Bayesian regression,” they trained an algorithm to automatically identify patterns from the data, which they used to predict prices, and trade accordingly.
Specifically, every two seconds they predicted the average price movement over the following 10 seconds. If the price movement was higher than a certain threshold, they bought a Bitcoin; if it was lower than the opposite threshold, they sold one; and if it was in-between, they did nothing.
Over 50 days, the team’s 2,872 trades gave them an 89 percent return on investment with a Sharpe ratio (measure of return relative to the amount of risk) of 4.1.
The team’s paper was published this month at the 2014 Allerton Conference on Communication, Control, and Computing.
“We developed this method of latent-source modeling, which hinges on the notion that things only happen in a few different ways,” says Shah, who previously used the approach to predict Twitter trending topics. “Instead of making subjective assumptions about the shape of patterns, we simply take the historical data and plug it into our predictive model to see what emerges.”
Shah says he was drawn to Bitcoin because of its vast swath of free data, as well as its sizable user base of high-frequency traders.
“We needed publicly available data, in large quantities and at an extremely fine scale,” says Shah, the Jamieson Career Development Associate Professor of Electrical Engineering and Computer Science. “We were also intrigued by the challenge of predicting a currency that has seen its prices see-saw regularly in the last few years.”
In the future, Shah says he is interested in expanding the scale of the data collection to further hone the effectiveness of his algorithm.
“Can we explain the price variation in terms of factors related to the human world? We have not spent a lot of time doing that,” Shah says, before adding with a laugh, “But I can show you it works. Give me your money and I’d be happy to invest it for you.”
When Shah published his Twitter study in 2012, some academics wondered whether his approach could work for stock prices. With the Bitcoin research complete, he says he now feels confident modeling virtually any quantity that varies over time — including, he says half-jokingly, the validity of astrology predictions.
If nothing else, the findings demonstrate Shah’s belief that, more often than not, what gets in the way of our predictive powers are our preconceived notions of what patterns will pop up.
“When you get down to it,” he says, “you really should be letting the data decide.”
 

Keeping hydrogen from cracking metals



Keeping hydrogen from cracking metals

MIT postdoctoral associate Mostafa Youssef and graduate student Aravind Krishnamoorthy tackle different aspects of the problem at atomic scale.

Metal alloys such as steel and zirconium that are used in pipes for nuclear reactors and oil fields naturally acquire a protective oxide or sulfide layer. But hydrogen penetration can lead to their breakdown and speed up corrosion. Understanding how defects in the protective layer allow hydrogen to penetrate could lead to designing stronger, more corrosion resistant alloys.
MIT postdoctoral associate Mostafa Youssef and graduate student Aravind Krishnamoorthy are studying protective layers of iron sulfide in steel and zirconium oxide in zirconium alloys by modeling atomic level interactions. They are members of the Lab for Electrochemical Interfaces, which is directed by MIT associate professor of nuclear science and engineering Bilge Yildiz.
"We are trying to first understand fundamentally this oxide layer that grows on the metal in general; it doesn't really matter which particular metal it is," Youssef says. "Then we can engineer through alloying by inserting a percentage of other metals, in order to improve the resistance toward the degradation phenomenon that we care about, whether it's hydrogen or just the continuous corrosion. We just need a little bit of corrosion to sufficiently produce a coherent oxide layer."
"The next level after the understanding would be engineering by suggesting alloying elements on a physics-based understanding rather than empirical experimentation," he adds. "What we are trying to show is that we can understand the physical mechanism by which the process takes place and then scientifically suggest a metal based on this new knowledge."
Lattice vacancies trap hydrogen
Youssef studied how point defects in zirconium oxide can move through the material from the environment side to the underlying metal. Zirconium oxide is the native protective layer that forms on zirconium alloys used in nuclear reactors, in particular for enclosing the nuclear fuel. "If this process goes very fast, then the corrosion reaction will proceed in a fast fashion as well, and continuously will eat the whole metal. We want corrosion to take place, but we don't want it to be very fast over long time scales. We want it to just provide a sufficient protective layer, and then stop," Youssef said.
"Hydrogen is dangerous because if it gets inside the metal, it degrades its mechanical properties completely, a phenomenon called hydrogen embrittlement, and leads to premature cracking, something clearly unwanted in a nuclear reactor," Youssef explains.
Youssef and Yildiz reported on hydrogen defects in zirconium oxide, under both oxygen rich/zirconium poor and oxygen poor/zirconium rich conditions, in the Physical Chemistry Chemical Physics article, "Hydrogen defects in tetragonal ZrO2 studied using density functional theory," in November 2013. Using Density Functional Theory calculations, they modeled both single and paired hydrogen atoms at different sites in the zirconium oxide crystal lattice and also modeled their charge states. Significantly, the research showed that both oxygen vacancies and zirconium vacancies could attract hydrogen under different conditions. The simulation found that "zirconium vacancies can act as trapping sites for hydrogen and the resulting complexes can be detrimental precursors for the mechanical failure of the oxide."
The work also included signatures of hydrogen in zirconia that could be experimentally validated, such as the net spin and the vibrational frequencies of the defects. Youssef is pursuing this theme by evaluating various compositions of zirconium alloys for their effectiveness at preventing hydrogen uptake through the zirconium oxide layer, which is a cause of premature fracture.
Modeling on atomic scale
While he also uses computational analysis, fifth-year materials science and engineering doctoral student Krishnamoorthy focuses on iron sulfide films inside pipes for offshore oil fields. He is studying how hydrogen gets into the native protective layer of iron sulfide, how mechanical damage propagates through the film, and whether there are ways to make it more stable. Lab member F. William Herbert, also a graduate student in materials science and engineering, handles the experimental side, studying formation and stability of iron sulfide on iron samples.
"One of the main strengths of our group is combining both the experimental data at the lab and the computational data that we provide to get a holistic picture of what's going on from the atomic scale," Krishnamoorthy says.
Krishnamoorthy worked with Herbert, Yildiz, and associate professor of materials science and engineering Krystyn J. Van Vliet on a paper that quantified the electronic band gap and surface states of iron sulfide, also known as pyrite, establishing significant differences between its surface properties and those of the bulk material. Krishnamoorthy contributed electronic structure calculations to the work, showing that the energy bandgap at the surface of iron sulfide is less than the comparable value for the bulk material. "This finding is important in establishing accurate models for predicting corrosion rates, and also for potential solar cell or semiconductor uses for the same material," Krishnamoorthy says.
On hydrogen-related research, "You have hydrogen that gets into the film, and it makes it mechanically weak, and then the film breaks off and the surface is no longer protected," Krishnamoorthy explains. "What you want to identify is what are the physical phenomena that are responsible for hydrogen entering the film and making it mechanically weak. We're trying to model them at the atomic scale, because that is the length scale at which the required reactions happen." He identified how atomic defects inside the iron sulfide films catalyze the hydrogen reactions and lead to mechanical fracture of the films. His recent work on this finding is in review prior to publication.
A challenge in this computational work is the scaling up from tiny atomic-level simulations that model very short timeframes to large, real-world models, in which corrosion happens over months or years. Youssef says, "If you think about zirconium alloys in a nuclear reactor, the industry has to produce structures that are several meters long, and for oil and gas field applications the structures could be kilometers of these alloys. What we are trying to do is just infer the fundamental physics underlying corrosion on a nanometer scale, and we are trying to transfer this understanding, which we obtained on the nanometer scale, to the engineering level, which takes place on the miles scale." Currently, Krishnamoorty is working on addressing this problem also by developing new models which bridge his atomistic simulations to large scales for corrosion prediction.
For atomistic simulations, they use commercially-available software for quantum-mechanical calculations. For example, Youssef used Vienna Ab-initio Simulation Package (VASP) software for his work on hydrogen defects in zirconium oxide. But they also write some of their own computer code for unique aspects of the passive films and crystal structures they study. Their investigations require a multi-disciplinary approach pulling in solid state physics, statistical mechanics, electrochemistry and materials science.
Krishnamoorthy received his bachelor's degree in metallurgical and materials engineering at the Indian Institute of Technology (IIT) in Madras, India. Youssef completed his master's and PhD at MIT in nuclear science and engineering. He received his bachelor's degree in nuclear engineering at Alexandria University in Egypt.
 

วันพุธที่ 5 พฤศจิกายน พ.ศ. 2557

Parallel programming may not be so daunting

Parallel programming may not be so daunting

“Lock-free” parallel algorithms may match performance of more complex “wait-free” algorithms.



Computer chips have stopped getting faster: The regular performance improvements we’ve come to expect are now the result of chipmakers’ adding more cores, or processing units, to their chips, rather than increasing their clock speed.
In theory, doubling the number of cores doubles the chip’s efficiency, but splitting up computations so that they run efficiently in parallel isn’t easy. On the other hand, say a trio of computer scientists from MIT, Israel’s Technion, and Microsoft Research, neither is it as hard as had been feared.
Commercial software developers writing programs for multicore chips frequently use so-called “lock-free” parallel algorithms, which are relatively easy to generate from standard sequential code. In fact, in many cases the conversion can be done automatically.
Yet lock-free algorithms don’t come with very satisfying theoretical guarantees: All they promise is that at least one core will make progress on its computational task in a fixed span of time. But if they don’t exceed that standard, they squander all the additional computational power that multiple cores provide.
In recent years, theoretical computer scientists have demonstrated ingenious alternatives called “wait-free” algorithms, which guarantee that all cores will make progress in a fixed span of time. But deriving them from sequential code is extremely complicated, and commercial developers have largely neglected them.
In a paper to be presented at the Association for Computing Machinery’s Annual Symposium on the Theory of Computing in May, Nir Shavit, a professor in MIT’s Department of Electrical Engineering and Computer Science; his former student Dan Alistarh, who’s now at Microsoft Research; and Keren Censor-Hillel of the Technion demonstrate a new analytic technique suggesting that, in a wide range of real-world cases, lock-free algorithms actually give wait-free performance.
“In practice, programmers program as if everything is wait-free,” Shavit says. “This is a kind of mystery. What we are exposing in the paper is this little-talked-about intuition that programmers have about how [chip] schedulers work, that they are actually benevolent.”
The researchers’ key insight was that the chip’s performance as a whole could be characterized more simply than the performance of the individual cores. That’s because the allocation of different “threads,” or chunks of code executed in parallel, is symmetric. “It doesn’t matter whether thread 1 is in state A and thread 2 is in state B or if you just swap the states around,” says Alistarh, who contributed to the work while at MIT. “What we noticed is that by coalescing symmetric states, you can simplify this a lot.”
In a real chip, the allocation of threads to cores is “a complex interplay of latencies and scheduling policies,” Alistarh says. In practice, however, the decisions arrived at through that complex interplay end up looking a lot like randomness. So the researchers modeled the scheduling of threads as a process that has at least a little randomness in it: At any time, there’s some probability that a new thread will be initiated on any given core.
The researchers found that even with a random scheduler, a wide range of lock-free algorithms offered performance guarantees that were as good as those offered by wait-free algorithms.
That analysis held, no matter how the probability of thread assignment varied from core to core. But the researchers also performed a more specific analysis, asking what would happen when multiple cores were trying to write data to the same location in memory and one of them kept getting there ahead of the others. That’s the situation that results in a lock-free algorithm’s worst performance, when only one core is making progress.
For that case, they considered a particular set of probabilities, in which every core had the same chance of being assigned a thread at any given time. “This is kind of a worst-case random scheduler,” Alistarh says. Even then, however, the number of cores that made progress never dipped below the square root of the number of cores assigned threads, which is still better than the minimum performance guarantee of lock-free algorithms.
 

An end to drug errors?


An end to drug errors?

Mint Solutions tackles medication errors with scanning system that ensures patients get the right pills. 



MIT alumni entrepreneurs Gauti Reynisson MBA ’10 and Ívar Helgason HS ’08 spent the early 2000s working for companies that implemented medication-safety technologies — such as electronic-prescription and pill-barcoding systems — at hospitals in their native Iceland and other European countries.
But all that time spent in hospitals soon opened their eyes to a major health care issue: Surprisingly often, patients receive the wrong medications. Indeed, a 2006 report from the Institute of Medicine found that 1.5 million hospitalized patients in the United States experience medication errors every year due, in part, to drug-administration mistakes. Some cases have adverse or fatal results.
Frustrated and seeking a solution, the Icelandic duo quit their careers and traveled to MIT for inspiration. There, they teamed up with María Rúnarsdóttir MBA ’08 and devised MedEye, a bedside medication-scanning system that uses computer vision to identify pills and check them against medication records, to ensure that a patient gets the right drug and dosage.
Commercialized through startup Mint Solutions, MedEye has now been used for a year in hospitals in the Netherlands (where the startup is based), garnering significant attention from the medical community. Through this Dutch use, the co-founders have determined that roughly 10 percent of MedEye’s scans catch medication errors.
“Medication verification is a pinnacle point of medical safety,” says Helgason, a physician and product developer. “It’s a complicated chain of events that leads up to medication mistakes. But the bedside is the last possible place to stop these mistakes.”
Mint Solutions’ aim, Reynisson says, is to aid nurses in rapidly, efficiently, and correctly administering medication. “We want the device to be the nurse’s best friend,” says Reynisson, now Mint’s CEO. The device, he adds, could yield savings by averting medication mishaps, which can cost hundreds of millions of dollars.
Currently, the startup has raised $6 million in funding, and is ramping up production and working with a Dutch health care insurance company to bring the MedEye to 15 hospitals across the country, as well as Belgium, the United Kingdom, and Germany.
Systematic approach
To use the MedEye — a foot-high box in a white housing — a nurse first scans a patient’s wristband, which has a barcode that accesses the patient’s electronic records. The nurse then pushes the assigned pills into the MedEye via a sliding tray. Inside the device, a small camera scans the pills, rapidly identifying them by size, shape, color, and markings. Algorithms distinguish the pills by matching them against a database of nearly all pills in circulation.
Although the hardware is impressive, much innovation is in MedEye’s software, which cross-references (and updates) the results in the patient’s records. Results are listed in a simple interface: Color-coded boxes show if pills have been correctly prescribed (green), or are unknown or wrong (red). If a pill isn’t in MedEye’s database — because it’s new, for instance — the system alerts the nurse, who adds the information into the software for next time.
“It does all the querying for the right medication, for the right patient, and takes care of the paperwork,” Helgason says. “We save a lot of time for nurses that way.”
Similar systems exist for catching medication errors: About 15 years ago, some hospitals began using barcode systems — which Reynisson and Helgason actually helped install in some Dutch and German hospitals. These systems also require nurses to use a handheld scanner to scan a patient’s wristband, and then the imprinted barcodes on each pill container.
“But the hurdle has been getting these installed,” Reynisson says. “Companies sell medications with barcodes, others sell software, or barcode scanners. Hospitals have to make all these things work together, and it’s hard for small and medium hospitals to afford. No one is selling turn-key  barcode systems.”
That’s where MedEye is truly unique, Helgason says: As an entire system that requires no change in a hospital’s workflow or logistics, “it’s more usable and more accessible in health care facilities.”
Feedback from nurses using MedEye to ease their workloads has been positive, Reynisson says. And errors are caught more often than expected. In fact, he recalls a memorable moment last year when a nurse at the Dutch hospital demonstrated the MedEye for department heads on a random patient. The nurse scanned four pills, which had been assigned to the patient, and added an extra, erroneous pill to show how MedEye caught errors.
“MedEye showed the extra pill was incorrect. But, to his surprise, so were two other pills that the nurse had assumed were correct, because another nurse had dispensed those,” Reynisson says. “Goes to show that even with full focus, it is common for nurses to be in a position where they are expected to catch errors made in other parts of the medication-delivery process.”
Vision for new technology
Helgason conceived of MedEye while studying in the MIT-Harvard Health Sciences and Technology program. In a computer-vision class in the Computer Science and Artificial Intelligence Laboratory, he saw that advances in 3-D object-recognition technology meant computers could learn objects based on various characteristics.
At the same time, he started taking heed of MIT’s burgeoning startup ecosystem, prompting him to contact his longtime medical-device colleague. “I remember Ívar called me one day and said, ‘Gauti, you have to come to MIT: Everyone’s starting companies,’” says Reynisson, a trained programmer who wrote early object-recognition code for the MedEye.
Seeking a change of pace from computer science, Reynisson enrolled in the MIT Sloan School of Management — where he saw that Helgason was right. “There was a spirit there, where you have to go for it, find a solution and market it, because if you don’t, no one else will,” he says. “That attitude, and seeing others do it, really inspires you to start a company and take the risk.”
Mint launched in 2009 with an initial concept design for MedEye. Entering that year’s MIT $100K Entrepreneurship Competition helped the three co-founders fine-tune their business plan and startup pitch, receiving help from mentors, professors, and even business-savvy students.
“That’s when we started to think of a business beyond the technology,” Reynisson says. “We left with a fairly sizeable business plan to take to investors and get funding.”
The team felt unsure of the technology at first. But a 2010 demonstration at a Dutch hospital of an early prototype — a bulkier version of the MedEye, with off-the-shelf parts, constructed at MIT — changed their perception. The hospital had to identify about 250 small, white pills of different medications that, in fact, all looked the same.
“We tried them all in our prototype at once, and it worked,” Reynisson says. “That’s when we realized what a change it would be for a hospital to collect data and important safety information, and get it fast and efficiently, without asking the nurse to pick up a pen.”
Mint Solution now has 40 MedEye systems ready to deploy across Europe in the coming months, with hopes of gaining some client feedback. In the future, Reynisson says, the startup has its sights on developing additional medication-safety technologies.
“At the core of the startup is this belief that better information technology in hospitals can both increase efficiency and safety, and lead to better outcomes,” he says. “We’re starting with verification of medication. But who knows what’s next?”
 

Hacking for good


Hacking for good

Alumni's software uses hacking tricks to catch vulnerabilities on websites before they're exploited. 

Hacking is often done with malicious intent. But the two MIT alumni who co-founded fast-growing startup Tinfoil Security have shown that hacking can be put to good use: improving security.
Through Tinfoil, Michael Borohovski ’09 and Ainsley Braun ’10 have commercialized scanning software that uses hacking tricks to find vulnerabilities in websites and alert developers and engineers who can quickly fix problems before sites go live.
Thousands of startups and small businesses, as well as several large enterprises, are now using the software. And around 75 percent of websites scanned have some form of vulnerability, Braun says. Indeed, a ticker on Tinfoil’s website shows that the software has caught more than 450,000 vulnerabilities so far.
“Our No. 1 goal is making sure we’re securing the Internet,” says Braun, Tinfoil’s CEO and a graduate of MIT’s brain and cognitive sciences program.
While at MIT, Braun and Borohovski ran with a group of computer-savvy students who extensively researched security issues, inside and outside the classroom. For his part, Borohovski, a lifelong hacker, took many classes on security and wrote his senior thesis on the topic of Web security.
Tinfoil started as an enterprise, however, when Braun and Borohovski reconnected in Washington after graduating, while working separate security gigs. As a hobby, they caught vulnerabilities in websites that required their personal information, and then notified site administrators.
“We’d get emails back saying they’d fixed the vulnerability. But we could exploit it again,” Braun says. “Eventually, we’d just walk them through how to fix it.”
When job offers started pouring in, the duo saw potential. “We said, ‘If people want to hire us to do this, then there’s a need,’” says Borohovski, Tinfoil’s chief technology officer, who helped build the firm’s software.
Returning to Boston, Braun and Borohovski founded Tinfoil, with the help of MIT’s Venture Mentoring Service, to launch the product. The startup has grown rapidly ever since: Recently, it partnered with CloudFlare, adding to a list of partnerships with Heroku, Rackspace, and others
 

Computer Technology

Computer Technology

The computer technology program transforms students into technology leaders in a sustainable global economy.  This is achieved by presenting students with a strong foundation in the concepts, theories, and practices that serve as the basis for the varying aspects of information technology.  This includes the design, implementation, and adminstration of secured systems and networks.  Students have the opportunity to develope expertise in specialty areas of interest through electives in higher level technology courses.

Since the purpose of information technology is to facilitate the goals and objecties of a business or organization, students are required to complete the Minor in Business Administration.  With an understanding of how organizations operate, students will be able to move effectively design systems and networks that will support the needs of the business or organization.

To gain real-world experience in today's computer environments, you are also required to complete an internship.

ส่วนประกอบภายในเครื่อง / คอมพิวเตอร์ประกอบด้วยอะไรบ้าง

ในตัวเครื่องคอมพิวเตอร์จะมีชิ้นส่วนภายในหลายชิ้น อุปกรณ์แต่ละชิ้นทำหน้าที่แตกต่างกันออกไป ดังนี้

1. เมนบอร์ด (Motherboard) เป็นแผงวงจรอิเล็กทรอนิกส์หลักของคอมพิวเตอร์อุปกรณ์อิเล็กทรอนิกส์ทุกชิ้น ของคอมพิวเตอร์ จะต้องต่อเชื่อมเข้ากับเมนบอร์ดนี้

2. หน่วยประมวลผลกลาง (CPU-Central Processing Unit) เป็นสมองของระบบคอมพิวเตอร์ ทำหน้าที่ควบคุมการปฏิบัติงานหลักของเครื่อง ทำหน้าที่ในการคำนวณประมวลผลและควบคุมอุปกรณ์ อื่นๆ ในระบบ ประกอบด้วยหน่วยย่อย 3 หน่วย คือ หน่วยความจำหลัก หน่วยคณิตศาสตร์และตรรกะ หรือหน่วยคำนวณ และหน่วยควบคุม

3. หน่วยความจำแรม (RAM – Random Access Memory) เป็นหน่วยความจำที่อยู่ในไมโคร คอมพิวเตอร์ และเป็นส่วนที่ใช้สำหรับทำงาน ใช้บันทึกข้อมูลหรือโปรแกรมเรียกคำสั่งจากหน่วยความจำหลัก เมื่อปิดเครื่อง ค่าที่อยู่ในแรมจะหายไป

4. หน่วยความจำรอม (ROM-Read Only Memory) เป็นชิปที่ใช้บันทึกโปรแกรมต่าง ๆ โดยบริษัท ผู้ผลิตเครื่อง ผู้ใช้งานไม่สามารถเปลี่ยนแปลงสิ่งที่บันทึกอยู่ในรอมได้ แต่จะสามารถเรียกใช้งานได้ แม้จะปิดเครื่อง คำสั่งที่บรรจุในรอมก็ยังคงไม่สูญหายไป

5. ซีดีรอมไดรฟ์ (CD-ROM Drive) เป็นอุปกรณ์เล่นแผ่นซีดีรอม โดยคอมพิวเตอร์ จะอ่านข้อมูลที่บันทึก อยู่ในแผ่นซีดีและแสดงผลออกมาทางจอภาพ

6. ช่องไดรฟ์ (DriveBay) เป็นโครงเหล็กช่องสี่เหลี่ยม อยู่ด้านบนของเครื่องใช้สำหรับใส่ฟลอปปี้ไดรฟ์ หรือซีดีรอมไดรฟ์

7. ฟลอปปี้ไดรฟ์ (Floppy Drive) เป็นช่องสำหรับอ่านแผ่นดิสก์ 3.5 นิ้วเพื่อให้คอมพิวเตอร์นำข้อมูลจาก แผ่นดิสก์ไปประมวลผลในเครื่องอีกที เครื่องคอมพิวเตอร์ส่วนใหญ่ยังจำเป็นต้องมีไดรฟ์ชนิดนี้อยู่ทั้งเครื่อง พีซี โน้ตบุ๊ค หรือแมคอินทอช

8. ฮาร์ดไดรฟ์ (Hard Drive) หรือฮาร์ดดิสก์ เป็นที่เก็บข้อมูลหลักของเครื่องคอมพิวเตอร์ มีความจุข้อมูลมากกว่าฟลอปปี้ดิสก์ ฮาร์ดไดรฟ์จะติดตั้งอยู่ภายในหน่วยระบบหลัก ขนาดความจุมีหน่วยเป็นเมกะไบต์ จนถึง กิกะไบต์ ขึ้นอยู่กับความต้องการพื้นที่ในการใช้งาน เวลาใช้งานคอมพิวเตอร์จะทำการเรียกโปรแกรมระบบที่สำคัญ จากฮาร์ดดิสก์ลงไปในหน่วยความจำแรม ฮาร์ดดิสก์ที่ใช้มีขนาดพอเหมาะที่จะบรรจุลงในตัวเครื่องคอมพิวเตอร์ได้อย่าง พอดี

9. หม้อแปลงไฟฟ้า (Power Supply) ติดตั้งอยู่ภายในเครื่องคอมพิวเตอร์ด้านหลังทำหน้าที่แปลงระดับแรง ดันไฟฟ้าที่ใช้ตามบ้านหรือไฟฟ้าทั่วไปมาใช้ให้เหมาะกับที่ใช้ในวงจร คอมพิวเตอร์

10. การ์ดขยาย (Expansion Card) เป็นอุปกรณ์คล้ายบัตร หรือการ์ดขนาดใหญ่ จึงเรียกว่า การ์ดขยาย ทำหน้าที่เฉพาะด้าน เช่น การ์ดแสดงผล การ์ดเสียง การ์ด 3D เป็นต้น

11. ช่องเสียบอุปกรณ์เพิ่มเติม (Expansion Slot) หรือเรียกกันทั่วไปว่า “สล๊อต” ทำหน้าที่ให้การ์ดขยาย เสียบเชื่อมต่อสัญญาณระหว่างการ์ดขยายกับเมนบอร์ด

ฮาร์ดแวร์และซอฟต์แวร์


   การใช้งานคอมพิวเตอร์ให้เกิดประโยชน์สูงสุดได้อย่างราบรื่นและไม่ติดขัด นั้น จะต้องประกอบด้วยสิ่งสำคัญ 3 ประการ ได้แก่ ฮาร์ดแวร์ ซอฟต์แวร์ และพีเพิลแวร์

1. ฮาร์ดแวร์ (Hardware) หมายถึง เครื่องมือในระบบคอมพิวเตอร์ซึ่งประกอบด้วยหน่วยรับ หน่วยประมวลผลกลาง หน่วยแสดงผลลัพธ์ รวมทั้งอุปกรณ์รอบข้างต่าง ๆ เช่น เมาส์ จอภาพ เครื่องพิมพ์ ซีพียู ฯลฯ
1.1 ไมโครโปรเซสเซอร์
1.2 หน่วยความจำ
1.3 อุปกรณ์เก็บข้อมูล
1.4 อุปกรณ์รับข้อมูล/แสดงผล

2. ซอฟต์แวร์ (Software) หมายถึง โปรแกรมต่าง ๆ ที่เขียนขึ้นโดยโปรแกรมเมอร์ เพื่อสั่งให้เครื่องคอมพิวเตอร์ทำงาน ซอฟต์แวร์จะช่วยในการแก้ปัญหาจากต้นจนจบ ทำงานรายละเอียดทุกขั้นตอน โปรแกรมเหล่านี้จะถูกเก็บไว้ในหน่วยความจำภายในซีพียู หลังจากนั้นเครื่องจะทำงานตามโปรแกรมภายใต้การควบคุมของหน่วยควบคุม ซอฟต์แวร์ แบ่งออกเป็น 2 ประเภทคือ

2.1 ซอฟต์แวร์ระบบปฏิบัติการ (Operating System Software) เป็นซอฟต์แวร์ที่ควบคุมการทำงานทั้งหมดของคอมพิวเตอร์ คอมพิวเตอร์ทุกเครื่องจะต้องมีระบบปฏิบัติการอย่างใดอย่างหนึ่งเสมอ ระบบปฏิบัติการยอดนิยมในปัจจุบันนี้ คือ Windows Xp และระบบปฏิบัติการ Linux , Dos และจะมีการพัฒนาโปรแกรมใหม่ ๆ ขึ้นมาเรื่อย ๆ

2.2 ซอฟต์แวร์ประยุกต์ (Application Software) หมายถึง โปรแกรมที่เขียนขึ้นเพื่อสั่งให้เครื่องคอมพิวเตอร์ทำงานเฉพาะอย่าง เช่น โปรแกรมระบบบัญชี โปรแกรมออกแบบ นอกจากนี้ยังมีโปรแกรมสำเร็จรูป ของบริษัทต่าง ๆ ออกมาใช้งาน เช่น Excel , Photoshop และ Oracle เป็นต้น
ตัวเครื่องคอมพิวเตอร์ (Computer Case) หมายถึง รูปร่างลักษณะทั่ว ๆ ไปของคอมพิวเตอร์ ตัวเครื่องจะทำหน้าที่ห่อหุ้มอุปกรณ์อิเล็กทรอนิกส์ต่าง ๆ ของคอมพิวเตอร์ ปัจจุบันตัวเครื่องมีหลากหลายรูปแบบ ขึ้นอยู่กับการออกแบบของผู้ผลิต ซึ่งสามารถแบ่งออกได้เป็น 4 ประเภท คือ

1. ตัวเครื่องแบบแนวนอน (Desktop Case) เป็นการวางตัวเครื่องแนวนอนบนโต๊ะ แล้วนำจอภาพมาวางซ้อนไว้บนโต๊ะ

2. ตัวเครื่องแบบแนวตั้ง (Tower Case) เป็นการวางตัวเครื่องไว้ในแนวตั้ง โดยตั้งไว้บนโต๊ะ หรือบนพื้นก็ได้ แล้ววางจอภาพไว้ข้าง ๆ ตัวเครื่อง ปัจจุบันตัวเครื่องแบบนี้ได้รับความนิยมมาก เพราะมีขนาดเล็ก ไม่กินเนื้อที่และเคลื่อนย้ายได้สะดวก

3. ตัวเครื่องแบบรวมในชิ้นเดียว (All-In-One Case) เป็นการวางเอาตัวเครื่องและอุปกรณ์ทั้งหมด รวมเป็นชิ้นเดียว คล้ายกับโทรทัศน์ ตัวเครื่องแบบนี้สะดวกในการเคลื่อนย้ายกะทัดรัด แต่ไม่ค่อยได้รับความนิยม เพราะหากอุปกรณ์ภายในชำรุดหรือเสียหาย ต้องรื้อทั้งชุด ไม่ปลอดภัยต่อการใช้งาน

4. คอมพิวเตอร์แบบพกพา เป็นคอมพิวเตอร์ที่สามารถพกพา หรือนำติดตัวไปไหนต่อไหนได้อย่างสะดวก มีแบตเตอรี่ป้อนไฟสำหรับเครื่อง เวลาออกไปใช้งานนอกสถานที่ มีขนาดเล็กน้ำหนักเบา แต่มีความสามารถมากพอ ๆ กับเครื่องขนาดใหญ่ คอมพิวเตอร์แบบต่าง ๆ มีข้อดีและข้อเสียในตัวเอง
การเลือกใช้งานขึ้นอยู่กับความเหมาะสมและลักษณะงานของผู้ใช้ เช่น หากผู้ใช้ต้องเดินทางไปไกล ๆ บ่อย ๆ ก็ควรใช้คอมพิวเตอร์แบบพกพาเพื่อจะใช้ทำงานได้สะดวก แต่ก็มีข้อด้อยคือ มีความสามารถในการทำงานจำกัด และมีราคาแพงมากกว่าคอมพิวเตอร์แบบตั้งโต๊ะ

ส่วนประกอบของคอมพิวเตอร์


   การนำคอมพิวเตอร์มาใช้งานได้นั้น  เครื่องจะต้องมีส่วนประกอบพื้นฐานที่สมบูรณ์และเหมาะสมทั้งอุปกรณ์หลักภายใน ตัวเครื่องคอมพิวเตอร์ และอุปกรณ์เสริมต่อพ่วงภายนอกคอมพิวเตอร์ ส่วนประกอบที่สำคัญของคอมพิวเตอร์มี ดังนี้

1. จอภาพ (Monitor) อาจเรียกทับศัพท์ว่า มอนิเตอร์ (Monitor) , สกรีน (Screen) , ดิสเพลย์ (Display) ใช้แสดงผลทั้งข้อความ ภาพนิ่ง และภาพเคลื่อนไหว มีลักษณะคล้ายจอโทรทัศน์ มีทั้งสีและขาวดำ ปัจจุบันนิยมใช้จอภาพสี

2. ตัวเครื่อง (Computer Case) เป็นส่วนที่เก็บอุปกรณ์อิเล็กทรอนิกส์หลักของคอมพิวเตอร์ เช่น CPU , Driver , Chip ฯลฯ เป็นหัวใจของเครื่อง

3. คีย์บอร์ด (Keyboard) หรือแป้นพิมพ์เป็นอุปกรณ์ที่ใช้พิมพ์คำสั่ง หรือป้อนข้อมูลเข้าสู่คอมพิวเตอร์ คีย์บอร์ดมีลักษณะคล้ายแป้นพิมพ์ดีด แต่จะมีปุ่มพิมพ์พิเศษมากกว่าเครื่องพิมพ์ดีด
4. เมาส์ (Mouse) เป็นอุปกรณ์ที่ใช้บังคับตัวชี้บนจอภาพ เพื่อเลือกคำสั่งต่าง ๆ แทนการป้อนคำสั่งทางคีย์บอร์ด

5. เครื่องพิมพ์ (Printer) เป็นอุปกรณ์แสดงผลข้อมูลออกมาทางกระดาษ

6. สแกนเนอร์ (Scanner) เป็นอุปกรณ์นำเข้าข้อมูลโดยเอารูปภาพหรือข้อความมาสแกนเข้าไปไว้ในเครื่อง

7. โมเด็ม (Modem) เป็นอุปกรณ์ที่ทำหน้าที่แปลงสัญญาณคอมพิวเตอร์ให้สามารถส่งไปตามสายโทรศัพท์ และแปลงข้อมูลจากสายโทรศัพท์ให้เป็นสัญญาณที่คอมพิวเตอร์สามารถรับรู้ได้

การทำงานของคอมพิวเตอร์

     คอมพิวเตอร์เป็นเครื่องมือช่วยในการทำงานของเรา ช่วยให้เราทำงานได้เร็วขึ้น สะดวก ขึ้นและแม่นยำมากขึ้น การใช้ประโยชน์จากคอมพิวเตอร์ให้ได้ผลเต็มที่เราจึงต้องเรียนรู้วิธีการทำ งานตลอดจนลักษณะต่าง ๆ ของคอมพิวเตอร์ให้ครบถ้วน การทำงานของคอมพิวเตอร์ มีขั้นตอนสำคัญ 4 ขั้นตอนดังนี้ คือ

ขั้นตอนที่ 1 การรับข้อมูลและคำสั่ง คอมพิวเตอร์รับข้อมูลและคำสั่งผ่านอุปกรณ์นำเข้าคือเมาส์  คีย์บอร์ด ฯลฯ

ขั้นตอนที่ 2 การประมวลผลหรือคิดคำนวณ หรือ CPU (Central Processing Unit) หรือเรียกสั้น ๆ ว่า (Chip) เป็นสมองของคอมพิวเตอร์ ทำหน้าที่คำนวณ ประมวนผลคำสั่ง และควบคุมการทำงานของอุปกรณ์อื่น ๆ

ขั้นตอนที่ 3 การเก็บข้อมูล ทำหน้าที่เก็บข้อมูลและโปรแกรมต่าง ๆ หน่วยเก็บข้อมูลคือ ฮาร์ดดิสก์   ดิสเกตส์   ซีดีรอม ฯลฯ

ขั้นตอนที่ 4 นำเสนอผลลัพธ์ เป็นอุปกรณ์ที่นำเสนอผลลัพธ์ที่ได้จากการประมวลผลของคอมพิวเตอร์ เช่น จอภาพ เครื่องพิมพ์  เป็นต้น

คอมพิวเตอร์ทำงานอย่างไร

      คอมพิวเตอร์ไม่ว่าจะเป็นประเภทใดก็ตาม จะมีลักษณะการทำงานของส่วนต่างๆ ที่มีความสัมพันธ์กันเป็นกระบวนการ โดยมีองค์ประกอบพื้นฐานหลักคือ Input  Process และ output ซึ่งมีขั้นตอนการทำงานดังนี้
ขั้นตอนที่ 1  รับข้อมูลเข้า (Input)
เริ่มต้นด้วยการนำข้อมูลเข้าเครื่องคอมพิวเตอร์ ซึ่งสามารถผ่านทางอุปกรณ์ชนิดต่าง  ๆ แล้วแต่ชนิดของข้อมูลที่จะป้อนเข้าไป เช่น ถ้าเป็นการพิมพ์ข้อมูลจะใช้แป้นพิมพ์ (Keyboard) เพื่อพิมพ์ข้อความหรือโปรแกรมเข้าเครื่อง ถ้าเป็นการเขียนภาพจะใช้เครื่องอ่านพิกัดภาพกราฟฟิค (Graphics Tablet) โดยมีปากกาชนิดพิเศษสำหรับเขียนภาพ หรือถ้าเป็นการเล่นเกมก็จะมีก้านควบคุม (Joystick) สำหรับเคลื่อนตำแหน่งของการเล่นเกมส์  เป็นต้น
ขั้นตอนที่ 2  ประมวลผลข้อมูล (Process)
เมื่อนำข้อมูลเข้ามาแล้ว เครื่องจะดำเนินการกับข้อมูลตามคำสั่งที่ได้รับมาเพื่อให้ได้ผลลัพธ์ตามที่ ต้องการ  การประมวลผลอาจจะมีได้หลายรูปแบบ เช่น นำข้อมูลมาหาผลรวม นำข้อมูลมาจัดกลุ่ม นำข้อมูลมาหาค่ามากที่สุด หรือน้อยที่สุด เป็นต้น
ขั้นตอนที่ 3  แสดงผลลัพธ์ (Output)
เป็นการนำผลลัพธ์จากการประมวลผลมาแสดงให้ทราบทางอุปกรณ์ที่กำหนดไว้ โดยทั่วไปจะแสดงผ่านทางจอภาพ หรือเรียกกันโดยทั่วไปว่า “จอมอนิเตอร์” (Monitor) หรือจะพิมพ์ข้อมูลออกทางกระดาษโดยใช้เครื่องพิมพ์ก็ได้

ที่มา  :

ระบบปฏิบัติการ (Operating System)

ระบบปฏิบัติการ (operating system) หรือ โอเอส (OS) คือโปรแกรมที่ทำหน้าที่เป็นตัวกลางเชื่อมต่อระหว่างฮาร์ดแวร์ (Hardware) กับ ซอฟต์แวร์ประยุกต์ทั่วไปซึ่งทำหน้าที่รับข้อมูลจากผู้ใช้อีกที โดยจะทำหน้าที่ควบคุมการแสดงผล การทำงานของฮาร์ดแวร์ ให้บริการกับซอฟต์แวร์ประยุกต์ทั่วไปในการรับส่งและจัดเก็บข้อมูลกับ ฮาร์ดแวร์ และจัดสรรการใช้ทรัพยากรระบบ (Resources) ให้เป็นไปอย่างมีประสิทธิภาพ

โดยทั่วไประบบปฏิบัติการนั้น ไม่ได้มีแต่เฉพาะในคอมพิวเตอร์เท่านั้น แต่มีอยู่ในอุปกรณ์อิเล็คทรอนิคส์หลายชนิด เช่น โทรศัพท์มือถือ คอมพิวเตอร์พกพา พีดีเอ แท็บเล็ตต่างๆ โดยจะทำหน้าที่ควบคุมการทำงานของอุปกรณ์ต่างๆ และติดต่อกับผู้ใช้ผ่านโปรแกรมประยุกต์ (Application) ตัวอย่างของระบบปฏิบัติการในคอมพิวเตอร์ ได้แก่ Windows, Linux, Mac OS, Solaris, Ubuntu ส่วนตัวอย่างของระบบปฏิบัติการใช้มือถือได้แก่ Windows Mobile, iOS, Android เป็นต้น

โดยทั่วไปแบ่งเป็น 3 ประเภท คือ

------ Software OS เป็นโปรแกรมที่ทำหน้าที่ควบคุมการทำงานของเครื่อง OS โดยส่วนใหญ่จะเป็น Software OS เนื่องจากสามารถปรับปรุง แก้ไข พัฒนาได้ง่ายที่สุด

------ Firmware OS เป็นโปรแกรมส่วนหนึ่งของคอมพิวเตอร์ ซึ่งก็คือ ไมโครโปรแกรม (Microprogram) ซึ่งเกิดจากชุดคำสั่งที่ต่ำที่สุดของระบบควบคุมการทำงานของ CPU หลายๆ คำสั่งรวมกัน การแก้ไข พัฒนา ทำได้ค่อนข้างยากและเสียค่าใช้จ่ายสูง

------ Hardware OS เป็น OS ที่สร้างจากอุปกรณ์อิเล็คทรอนิคส์ ทำหน้าที่เหมือน Software OS แต่เนื่องจากเป็นส่วนหนึ่งของฮาร์ดแวร์ ทำให้การปรับปรุงแก้ไขทำได้ยาก และมีราคาแพง

หน้าที่ของระบบปฏิบัติการ

---1. ติดต่อกับผู้ใช้ (User Interface)

------เนื่องจาก OS ถูกสร้างขึ้นด้วยจุดประสงค์หลัก คือ เพื่ออำนวยความสะดวกในการทำงานแก่ผู้ใช้ โดยที่ผู้ใช้ ไม่จำเป็นต้องทราบการทำงานของฮาร์ดแวร์ ก็สามารถทำงานได้โดยง่าย ดังนั้น จึงต้องมีส่วนที่ทำหน้าที่ติดต่อกับผู้ใช้ ในลักษณะที่ง่ายต่อการใช้งาน

---2. ควบคุมการทำงานของคอมพิวเตอร์

------OS เป็นตัวกลางที่เชื่อมต่อระหว่างผู้ใช้งานกับฮาร์ดแวร์ โดยผู้ใช้ ไม่จำเป็นต้องเข้าใจในการทำงานของฮาร์ดแวร์ ดังนั้น OS จึงต้องมีหน้าที่ควบคุมการทำงานของฮาร์ดแวร์ต่างๆ เหล่านั้นแทนผู้ใช้ โดยจะมีส่วนประกอบเป็นรูทีนต่างๆ ซึ่งจะควบคุมอุปกรณ์แต่ละชนิด

---3. จัดสรรทรัพยากรในระบบ

------ในการทำงานของเครื่อง คอมพิวเตอร์นั้น จำเป็นต้องใช้ทรัพยากรต่างๆ เข้าช่วย เช่น CPU หน่วยความจำ เป็นต้น และทรัพยากรเหล่านี้มีจำกัด จึงจำเป็นต้องมีการจัดสรรการใช้งานให้เกิดประโยชน์สูงสุด และทำให้การประมวลผลดำเนินไปอย่างมีประสิทธิภาพ

ความหมายของคอมพิวเตอร์

 ความหมายของคอมพิวเตอร์
          หมายถึงเครื่องคำนวณอิเล็กทรอนิกส์ที่สามารถทำงานคำนวณผลและเปรียบเทียบค่าตามชุดคำสั่งด้วยความเร็วสูง อย่างต่อเนื่อง และอัตโนมัติ

     พจนานุกรมฉบับราชบัณฑิตยสถาน พ.ศ. 2525 ได้ให้คำจำกัดความของคอมพิวเตอร์ไว้ค่อนข้างกะทัดรัดว่า เครื่องอิเล็กทรอนิกส์แบบอัตโนมัติ ทำหน้าที่เสมือนสมองกล ใช้สำหรับแก้ปัญหาต่าง ๆ ทั้งที่ง่ายและซับซ้อน โดยวิธีทางคณิตศาสตร์การจำแนกคอมพิวเตอร์ตามลักษณะวิธีการทำงานภายในเครื่องคอมพิวเตอร์อาจแบ่งได้เป็นสองประเภทใหญ่ ๆ คือ

1. แอนะล็อกคอมพิวเตอร์ (analog computer) เป็นเครื่องคำนวณอิเล็กทรอนิกส์ที่ไม่ได้ใช้ค่าตัวเลขเป็นหลักของการคำนวณ แต่จะใช้ค่าระดับแรงดันไฟฟ้าแทน ไม้บรรทัดคำนวณ อาจถือเป็นตัวอย่างหนึ่งของแอนะล็อกคอมพิวเตอร์ ที่ใช้ค่าตัวเลขตามแนวความยาวไม้บรรทัดเป็นหลักของการคำนวณ โดยไม้บรรทัดคำนวณจะมีขีดตัวเลขกำกับอยู่ เมื่อไม้บรรทัดหลายอันมรประกบรวมกัน การคำนวณผล เช่น การคูณ จะเป็นการเลื่อนไม้บรรทัดหนึ่งไปตรงตามตัวเลขของตัวตั้งและตัวคูณของขีดตัวเลขชุดหนึ่ง แล้วไปอ่านผลคูณของขีดตัวเลขอีกชุดหนึ่งแอนะล็อกคอมพิวเตอร์แบบอิเล็กทรอนิกส์จะใช้หลักการทำนองเดียวกัน โดยแรงดันไฟฟ้าจะแทนขีดตัวเลขตามแนวยาวของไม้บรรทัด
    แอนะล็อกคอมพิวเตอร์จะมีลักษณะเป็นวงจรอิเล็กทรอนิกส์ที่แยกส่วนทำหน้าที่เป็นตัวกระทำและเป็นฟังก์ชันทางคณิตศาสตร์ จึงเหมาะสำหรับงานคำนวณทางวิทยาศาสตร์และวิศวกรรมที่อยู่ในรูปของสมการคณิตศาสตร์ เช่น การจำลองการบิน การศึกษาการสั่งสะเทือนของตึกเนื่องจากแผ่นดินไหว ข้อมูลตัวแปรนำเข้าอาจเป็นอุณหภูมิความเร็วหรือความดันอากาศ ซึ่งจะต้องแปลงให้เป็นค่าแรงดันไฟฟ้า เพื่อนำเข้าแอนะล็อกคอมพิวเตอร์ผลลัพธ์ที่ได้ออกมาเป็นแรงดันไฟฟ้าแปรกับเวลาซึ่งต้องแปลงกลับไปเป็นค่าของตัวแปรที่กำลังศึกษา
    ในปัจจุบันไม่ค่อยพบเห็นแอนะล็อกคอมพิวเตอร์เท่าไรนักเพราะผลการคำนวณมีความละเอียดน้อย ทำให้มีขีดจำกัดใช้ได้กับงานเฉพาะบางอย่างเท่านั้น

2. ดิจิทัลคอมพิวเตอร์ (digital computer) คอมพิวเตอร์ที่พบเห็นทั่วไปในปัจจุบัน จัดเป็นดิจิทัลคอมพิวเตอร์แทบทั้งหมด ดิจิทัลคอมพิวเตอร์เป็นเครื่องคำนวณอิเล็กทรอนิกส์ที่ใช้งานเกี่ยวกับตัวเลข มีหลักการคำนวณที่ไม่ใช่แบบไม้บรรทัดคำนวณ แต่เป็นแบบลูกคิด โดยแต่และหลักของลูกคิดคือ หลักหน่วย หลักร้อย และสูงขึ้นไปเรื่อย ๆ เป็นระบบเลขฐานสินที่แทนตัวเลขจากศูนย์ถ้าเก้าไปสิบตัวตามระบบตัวเลขที่ใช้ในชีวิตประจำวัน
    ค่าตัวเลขของการคำนวณในดิจิทัลคอมพิวเตอร์จะแสดงเป็นหลักเช่นเดียวกัน แต่จะเป็นระบบเลขฐานสองที่มีสัญลักษณ์ตัวเลขเพียงสองตัว คือเลขศูนย์กับเลขหนึ่งเท่านั้น โดยสัญลักษณ์ตัวเลขทั้งสองตัวนี้ จะแทนลักษณะการทำงานภายในซึ่งเป็นสัญญาณไฟฟ้าที่ต่างกัน การคำนวณภายในดิจิทัลคอมพิวเตอร์จะเป็นการประมวลผลด้วยระบบเลขฐานสองทั้งหมด ดังนั้นเลขฐานสิบที่เราใช้และคุ้นเคยจะถูกแปลงไปเป็นระบบเลขฐานสองเพื่อการคำนวณภายในคอมพิวเตอร์ ผลลัพธ์ที่ได้ก็ยังเป็นเลขฐานสองอยู่ ซึ่งคอมพิวเตอร์จะแปลงเป็นเลขฐานสิบเพื่อแสดงผลให้ผู้ใช้เข้าใจได้ง่าย

จากอดีตสู่ปัจจุบัน

     พัฒนาการทางด้านเทคโนโลยีในช่วง 100 ปีที่ผ่านมาได้พัฒนาไปอย่างรวดเร็ว โดยเฉพาะอย่างยิ่งเทคโนโลยีทางด้าน คอมพิวเตอร์ เมื่อ 50 ปีที่แล้วมา มีคอมพิวเตอร์ขึ้นใช้งาน ต่อมาเกิดระบบสื่อสารโทรคมนาคมสมัยใหม่เกิดขึ้นมากมาย และมีแนวโน้มการพัฒนาอย่างต่อเนื่อง เราสามารถแบ่งพัฒนาการคอมพิวเตอร์จากอดีตสู่ปัจจุบัน สามารถแบ่งเป็นยุคก่อนการใช้ไฟฟ้าอิเล็กทรอนิคส์ และยุคที่เครื่องคอมพิวเตอร์เป็นอุปกรณ์ไฟฟ้าอิเล็กทรอนิคส์


ที่มา  : http://www.pbps.ac.th/e_learning/combasic/profile.html
Custom Search